Мы часто переоцениваем влияние технологии в краткосрочной перспективе и недооцениваем влияние в долгосрочной
Тема искусственного интеллекта (ИИ) стала центральной на Давос 2024. Согласно информации от Fortune, более двадцати сессий на мероприятии были посвящены непосредственно обсуждению ИИ, охватывая широкий спектр аспектов – от его применения в образовании до вопросов регулирования.
На форуме присутствовали влиятельные представители области искусственного интеллекта, включая генерального директора OpenAI Сэма Альтмана, главного руководителя Inflection AI Мустафу Сулеймана, ведущего ученого в области искусственного интеллекта в Meta Яна ЛеКуна, генерального директора Cohere Эйдана Гомеса и многих других.
От удивления к прагматизму: Эволюция дискуссий на Давосе
Если на Давосе-2023 обсуждения были преимущественно наполнены спекуляциями, опираясь на тогдашнюю свежую версию ChatGPT, то в текущем году подход стал более сбалансированным.
“В прошлом году разговор шел в ключе: ‘Ну и как тут удивиться!'”, – отметил вице-президент IBM по правительственным и нормативным вопросам, Крис Падилья, в интервью The Washington Post. “Теперь на повестке дня вопрос: ‘Каковы риски?’ Что требуется для того, чтобы придать искусственному интеллекту достоверность?”
Среди проблем, активно обсужденных на Давосе, оказались дезинформация, угроза потери рабочих мест и нарастающий экономический гап между развитыми и развивающимися странами.
Наиболее актуальным риском, о котором шла речь в Давосе, стала угроза массовой дезинформации и фейков, часто принимающих форму дипфейков в виде фотографий, видео и голосовых клонов. Эти явления могут еще больше запутывать реальность и подрывать доверие. Разговоры о звонках роботов перед первичными президентскими выборами в Нью-Гэмпшире, где использовался голосовой клон, выдававший себя за президента Джо Байдена, стали свежим примером попыток подавления голосов избирателей.
Дипфейки, подкрепленные искусственным интеллектом, способны формировать и распространять ложную информацию, вынуждая людей произносить слова, которых они на самом деле не говорили. В одном из интервью профессор Карнеги-Меллона, Кэтлин Карли, отметила: “Это всего лишь верхушка айсберга в отношении того, что можно сделать для подавления избирателей или нападения на работников избирательных комиссий”.
Консультант по корпоративному искусственному интеллекту, Реувен Коэн, недавно поделился с VentureBeat своим мнением, что с появлением новых инструментов искусственного интеллекта мы можем ожидать всплеска дипфейков в аудио, изображениях и видео, особенно ближе к выборам 2024 года.
Несмотря на значительные усилия, эффективного метода обнаружения дипфейков так и не удалось разработать. Как отметил Джереми Кан в статье для журнала Fortune: “Нам следует находить решение как можно скорее. Недоверие является коварным и разрушительным для демократии и общества”.
Перепады настроения ИИ
Эта смена настроений, произошедшая в период с 2023 по 2024 год, побудила Мустафу Сулеймана выразить свои мысли в журнале Foreignaffs, призывая к разработке “стратегии холодной войны” для обуздания угроз, возникающих в результате распространения искусственного интеллекта. Он подчеркнул, что фундаментальные технологии, такие как искусственный интеллект, постоянно становятся более доступными и простыми в использовании, проникают во все слои общества и находят применение в самых разнообразных областях, в том числе и в негативных.
“Когда враждебные правительства, маргинальные политические партии и даже отдельные индивидуумы смогут создавать и распространять материалы, неотличимые от реальности, они смогут вызывать хаос, а инструменты проверки, предназначенные для их контроля, могут быть обойдены генеративными системами”.
Обеспокоенность по поводу искусственного интеллекта возникла десятилетия назад и получила широкое обсуждение после выпуска фильма “2001: Космическая одиссея” в 1968 году. С тех пор неустанно возникают беспокойства и опасения, включая события в конце 1990-х годов вокруг киберпитомца Furby. В 1999 году Washington Post сообщила, что Агентство национальной безопасности (АНБ) запретило находиться в своих помещениях с игрушками Furby из-за опасений, что они могут служить устройствами для подслушивания, способными раскрывать информацию о национальной безопасности. В документах АНБ того периода обсуждалась даже способность игрушки “обучаться” с использованием “бортового искусственного интеллектуального чипа”.
Рефлексия о будущей траектории развития искусственного интеллекта
Волнения вокруг искусственного интеллекта (ИИ) в последнее время достигли нового уровня, поскольку все больше экспертов в данной области высказывают мнение, что в ближайшем будущем может появиться общий искусственный интеллект (AGI). Хотя конкретное определение AGI остается размытым, принято считать, что это тот момент, когда ИИ становится умнее и более компетентным, чем человек с высшим образованием в самых различных областях.
Сэм Альтман высказал мнение, что AGI, возможно, уже близко к реальности и может быть разработан в “достаточно близком будущем”. Эйдан Гомес поддержал этот взгляд, добавив: “Я убежден, что эта технология станет частью нашей реальности весьма скоро”.
Тем не менее, не все разделяют такой агрессивный график внедрения AGI. Например, Ян ЛеКун относится к этому скептически, высказывая сомнения в скором появлении AGI. В интервью испанскому изданию EL PAÍS он заявил: “ИИ на уровне человека не столь близко. Это потребует много времени и новых научных прорывов, о которых мы пока что не знаем”.
Общественное мнение и перспективы на будущее
Очевидно, что неопределенность относительно будущего развития технологий искусственного интеллекта остается высокой. Согласно Барометру доверия Эдельмана за 2024 год, представленному на Давосе, глобальные респонденты разделились на тех, кто отклоняет (35%) и принимает (30%) искусственный интеллект. Люди осознают впечатляющий потенциал ИИ, но также понимают сопутствующие риски. Согласно отчету, люди склонны более положительно относиться к искусственному интеллекту и другим инновациям, если они подтверждены учеными и специалистами по этике, если они чувствуют контроль над тем, как технология влияет на их жизнь, и убеждены, что это приведет к лучшему будущему.
Соблазнительно ускорять поиск решений для “сдерживания” технологии, как предложил Сулейман. Однако полезно помнить о Законе Амары, сформулированном Роем Амарой, бывшим президентом Института будущего. Он высказал: “Мы часто переоцениваем влияние технологии в краткосрочной перспективе и недооцениваем влияние в долгосрочной”.
Несмотря на проводимые в настоящее время обширные эксперименты и раннее внедрение, широкий успех в области искусственного интеллекта не гарантирован. Генеральный директор и соучредитель Humane Intelligence, Румман Чоудхури, высказал мнение, что мы можем столкнуться с “дном разочарования в 2024 году” и осознаем, что искусственный интеллект не столь удивителен, как нас убедили думать.
2024 год может стать временем, когда мы рассмотрим технологию более критически. В это время многие люди и компании будут разрабатывать стратегии оптимального использования генеративного искусственного интеллекта для достижения личных или бизнес-целей.
Генеральный директор Accenture, Джули Свит, подчеркнула, что мы все еще находимся в фазе, где люди в восторге от технологий и часто не осознают их реальной ценности. Компания проводит семинары для руководителей, чтобы обучить их использованию этой технологии как ключевого элемента раскрытия потенциала и перехода от простого использования к созданию реальной ценности.
Таким образом, преимущества и возможные негативные последствия искусственного интеллекта могут проявиться не немедленно, но, возможно, неизбежно. Мы находимся на перепутье, где управление и инновации могут определить будущее, в котором искусственный интеллект усиливает человеческий потенциал, не ставя под угрозу нашу коллективную целостность и ценности. Способность предвидения и проектирования такого будущего потребует совместных усилий и мудрости, чтобы обеспечить, чтобы искусственный интеллект служил человечеству, а не противопоставлялся ему.