banner
Центр новостей
Наши товары ценятся как в отечественных, так и в зарубежных регионах.

Джульетта Пауэлл и Арт Кляйнер, авторы книги «Дилемма искусственного интеллекта»

Apr 10, 2024

Опубликовано

на

К

«Дилемма искусственного интеллекта» написана Джульеттой Пауэлл и Артом Кляйнером.

Джульетт Пауэлл — писательница, телевизионная создательница, за плечами которой 9000 живых выступлений, а также технолог и социолог. Она также является комментатором Bloomberg TV/Business News Networks и докладчиком на конференциях, организованных журналом Economist и Международной финансовой корпорацией. Ее выступление на TED собрало 130 тысяч просмотров на YouTube. Джульетта определяет модели и методы успешных бизнес-лидеров, которые для победы полагаются на этический искусственный интеллект и данные. Она учится на факультете ITP Нью-Йоркского университета, где читает четыре курса, в том числе курс «Навыки дизайна для ответственных медиа», основанный на ее книге.

Арт Кляйнер — писатель, редактор и футуролог. Среди его книг «Эпоха еретиков», «Кто действительно имеет значение», «Привилегия и успех» и «Мудрые». Он был редактором журнала «Стратегия+бизнес», отмеченного наградами журнала PwC. Арт также является давним преподавателем в NYU-ITP и IMA, где его курсы включают совместное преподавание «Ответственных технологий» и «Будущего медиа».

«Дилемма ИИ» — это книга, в которой основное внимание уделяется опасностям, связанным с попаданием технологии ИИ в чужие руки, но при этом признаются преимущества, которые ИИ предлагает обществу.

Проблемы возникают из-за того, что лежащая в основе технология настолько сложна, что конечному пользователю становится невозможно по-настоящему понять внутреннюю работу закрытой системы.

Одна из наиболее важных проблем, о которых говорится, заключается в том, что определение ответственного ИИ постоянно меняется, поскольку социальные ценности часто не остаются неизменными с течением времени.

Мне очень понравилось читать «Дилемму искусственного интеллекта». Эта книга не делает сенсаций об опасностях искусственного интеллекта и не углубляется в потенциальные ловушки общего искусственного интеллекта (AGI). Вместо этого читатели узнают об удивительных способах использования наших личных данных без нашего ведома, а также о некоторых текущих ограничениях ИИ и причинах для беспокойства.

Ниже приведены некоторые вопросы, призванные показать нашим читателям, чего они могут ожидать от этой новаторской книги.

Что изначально вдохновило вас на написание «Дилеммы искусственного интеллекта»?

Джульетта отправилась в Колумбию частично для изучения границ и возможностей регулирования ИИ. Она не понаслышке слышала от друзей, работающих над проектами ИИ, о напряженности, присущей этим проектам. Она пришла к выводу, что существует дилемма ИИ, гораздо более серьезная проблема, чем саморегуляция. Она разработала эталонную модель Apex — модель того, как решения, касающиеся ИИ, имеют тенденцию к низкой ответственности из-за взаимодействия между компаниями и группами внутри компаний. Это привело к ее диссертации.

Арт работал с Джульеттой над рядом писательских проектов. Он прочитал ее диссертацию и сказал: «У вас есть книга». Джульетта предложила ему стать соавтором. Работая над этим вместе, они обнаружили, что у них очень разные точки зрения, но они разделяют твердое мнение о том, что этот сложный и очень рискованный феномен ИИ необходимо лучше понять, чтобы люди, использующие его, могли действовать более ответственно и эффективно.

Одна из фундаментальных проблем, которая подчеркивается в «Дилемме ИИ», заключается в том, что в настоящее время невозможно понять, несет ли система ИИ ответственность или она увековечивает социальное неравенство, просто изучая ее исходный код. Насколько велика это проблема?

Проблема не в исходном коде. Как отмечает Кэти О'Нил, когда существует закрытая система, это не просто код. Необходимо изучить социотехническую систему — человеческие и технологические силы, которые формируют друг друга. Логика, по которой была построена и выпущена система искусственного интеллекта, включала определение цели, идентификацию данных, установку приоритетов, создание моделей, установку руководящих принципов и ограничений для машинного обучения, а также решение, когда и как должен вмешаться человек. Это та часть, которую необходимо сделать прозрачной — по крайней мере, для наблюдателей и аудиторов. Риск социального неравенства и другие риски гораздо выше, когда эти части процесса скрыты. Вы не можете действительно перепроектировать логику проекта из исходного кода.