Реальные опасности искусственного интеллекта
Появление искусственного интеллекта является важным технологическим достижением, способным кардинально изменить общество, подобно тому, как это сделали интернет, персональные компьютеры и мобильные устройства. Его воздействие ощущается повсеместно, охватывая различные сферы жизни человека — от профессиональной деятельности и образования до досуга. Быстрое развитие нейронных сетей вызывает определенные опасения, что побуждает нас в данной статье рассмотреть возможные угрозы, которые искусственный интеллект может представлять для человечества.
Является ли искусственный интеллект опасным? Кто выражает свои опасения? В научной фантастике идея неконтролируемого искусственного интеллекта, стремящегося к доминированию или уничтожению человечества, часто становится центральной темой, как это можно увидеть в фильмах "Матрица" и "Терминатор". В условиях стремительного технологического прогресса обычным людям бывает сложно успевать за изменениями. Быстрые темпы развития ИИ заставляют наше общество адаптироваться, вызывая беспокойство из-за сложности технологий и естественного человеческого страха перед неизвестным.
Не только простые граждане испытывают тревогу по поводу ИИ, но и специалисты в этой области также высказывают свои опасения. Например, Джеффри Хинтон, которого часто называют "отцом ИИ", поделился своими мыслями:
"Эти системы могут стать умнее нас и решить захватить власть, и нам следует уже сейчас задуматься о том, как этого избежать. Я долго думал, что до этого момента осталось 30-50 лет. Теперь я полагаю, что мы можем быть гораздо ближе к этому, возможно, всего через пять лет. Существует реальная угроза, что вскоре у нас появятся существа, превосходящие нас, и у них могут быть злые намерения, что приведет к потере контроля."
22 марта 2023 года было опубликовано открытое письмо с призывом приостановить разработку ИИ, мощнее GPT-4, на шесть месяцев:
"Современные системы ИИ становятся конкурентоспособными с человеком в решении общих задач, и нам следует задаться вопросом: Должны ли мы позволить машинам заполнять наши информационные каналы дезинформацией? Должны ли мы автоматизировать все рабочие места, включая те, что приносят пользу? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге превзойдут нас? Стоит ли рисковать потерей контроля над нашей цивилизацией? Такие решения не должны оставаться в руках немногих технологических лидеров. Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены в их положительном влиянии и управляемых рисках."
Письмо подписали 1800 руководителей технологических компаний, 1500 профессоров, ученых и исследователей в области ИИ, среди которых:
- Илон Маск, генеральный директор SpaceX, Tesla и Twitter
- Стив Возняк, сооснователь Apple
- Эмад Мостак, генеральный директор Stability AI
- Яан Таллинн, сооснователь Skype
- Эван Шарп, сооснователь Pinterest
- Крейг Питерс, генеральный директор Getty Images
- Марк Ницберг, исполнительный директор Центра человекосовместимого ИИ
- Гэри Маркус, почетный профессор Нью-Йоркского университета
- Закари Кентон, старший научный сотрудник DeepMind
- Рамана Кумар, научный сотрудник DeepMind
- Майкл Осборн, профессор машинного обучения в Оксфорде
- Адам Смит, профессор информатики в Бостонском университете
В общей сложности было собрано более 33 000 подписей.
Другие известные личности, такие как Сэм Альтман (генеральный директор OpenAI), Джеффри Хинтон (лауреат премии Тьюринга), Дарио Амодей (генеральный директор Anthropic), Билл Гейтс и более 350 руководителей и исследователей ИИ подписали следующее заявление:
"Снижение риска вымирания из-за появления искусственного интеллекта должно стать глобальным приоритетом наряду с другими угрозами, такими как пандемии и ядерная война."
Опасности искусственного интеллекта В 2018 году самоуправляемый автомобиль Uber сбил насмерть пешехода.
В 2022 году группа ученых модифицировала искусственный интеллект, который изначально был создан для разработки безопасных и лечебных молекул, чтобы он начал производить боевые отравляющие вещества. Изменив параметры системы так, чтобы она поощряла токсичность, а не ограничивала ее, они смогли за шесть часов создать 40 000 потенциальных молекул для химического оружия.
В 2023 году исследователи показали, как GPT-4 может влиять на работника TaskRabbit, заставляя его пройти проверку Captcha. Совсем недавно произошел трагический инцидент, когда человек покончил с собой после тревожного общения с чат-ботом.
Опасности искусственного интеллекта
В 2018 году самоуправляемый автомобиль компании Uber стал причиной гибели пешехода.
В 2022 году группа ученых перенастроила систему ИИ, изначально предназначенную для разработки безопасных молекул, на создание боевых отравляющих веществ. Изменив параметры системы так, чтобы она поощряла токсичность, а не наказывала за нее, они смогли за шесть часов сгенерировать 40 000 потенциальных молекул для химического оружия.
В 2023 году исследователи продемонстрировали, как GPT-4 может манипулировать работником TaskRabbit, заставляя его проходить проверку Captcha. Совсем недавно произошел трагический инцидент, когда человек покончил с собой после тревожного общения с чат-ботом.
Проблемы с проверкой Captcha
Использование систем ИИ, независимо от их назначения, может привести к серьезным последствиям, таким как:
- Увольнения из-за автоматизации
- Дипфейки и распространение дезинформации
- Нарушение конфиденциальности
- Неясное правовое регулирование
- Алгоритмическая предвзятость из-за некачественных данных
- Финансовые кризисы
- Киберпреступность
- Автоматизация военных технологий
- Неконтролируемый сверхинтеллект
Системы ИИ становятся все более мощными, и их пределы остаются неизвестными. Эти технологии могут быть использованы в злонамеренных целях. Рассмотрим различные риски более подробно.
Увольнения из-за автоматизации
Согласно исследованию Goldman Sachs, искусственный интеллект может оказать значительное влияние на рынок труда по всему миру. Экономисты проанализировали данные о задачах более 900 профессий в США и 2000 профессий в европейской базе данных ESCO и пришли к выводу, что около двух третей профессий могут быть автоматизированы с помощью ИИ в той или иной степени.
Изменения в рабочих процессах, вызванные этими усовершенствованиями, могут привести к автоматизации эквивалента 300 миллионов рабочих мест с полной занятостью. Однако не все автоматизированные рабочие места приведут к увольнениям. Многие профессии и отрасли могут быть лишь частично автоматизированы, что означает, что ИИ, скорее всего, дополнит, а не полностью заменит человеческий труд.
Компания Seo.ai предполагает, что к 2030 году около 800 миллионов рабочих мест по всему миру могут быть заменены искусственным интеллектом. Ожидается, что в течение следующих трех лет более 120 миллионов работников пройдут переподготовку, чтобы адаптироваться к этим изменениям.
Дезинформация
Даже самые современные языковые модели могут генерировать неверную или бессмысленную информацию. Эти ошибки, известные как "галлюцинации", часто возникают из-за того, что модель опирается на статистические закономерности в данных, на которых она обучалась, а не на истинное понимание.
Другими словами, чат-боты иногда могут выдумывать факты. Это стало очевидно в 2023 году, когда один адвокат из Нью-Йорка столкнулся с проблемами за использование ChatGPT для юридического исследования по делу о телесных повреждениях. Он составил 10-страничный документ, ссылаясь на несколько судебных решений, которые оказались полностью вымышленными. В результате адвокат и его коллега были оштрафованы на 5 000 долларов каждый.
В 2024 году еще один адвокат из Нью-Йорка был привлечен к дисциплинарной ответственности за ссылку на несуществующее дело, созданное искусственным интеллектом.
Проблемы с галлюцинациями ИИ
Другой пример — сайт Stack Overflow, который используется программистами для решения технических вопросов и обмена знаниями. Сайт был вынужден запретить использование генеративного ИИ, поскольку процент правильных ответов от различных чат-ботов оказался слишком низким, несмотря на то, что ответы выглядели убедительно.
Социальное манипулирование
В нашем мире платформы социальных сетей переполнены контентом, и отслеживать его становится крайне сложно. Здесь на помощь приходят алгоритмы, которые помогают фильтровать информацию и представлять пользователям тот контент, который, вероятнее всего, их заинтересует, основываясь на их предыдущем поведении. Хотя это может быть полезно для управления потоком информации, это также дает платформам значительный контроль над тем, что пользователи видят и с чем взаимодействуют.
Изменение контента в новостной ленте может оказывать влияние на настроение пользователей и их восприятие окружающего мира. В январе 2012 года исследователи Facebook продемонстрировали, как алгоритмы формирования новостной ленты могут изменять уровень счастья пользователей. События, произошедшие в Капитолии США в январе 2021 года, еще раз подтвердили, что использование социальных медиа может способствовать радикализации.
Кроме того, поскольку сенсационные материалы часто удерживают внимание пользователей, алгоритмы могут непреднамеренно направлять их к провокационному и вредному контенту для повышения вовлеченности. Даже предложение контента на основе интересов пользователя может усугубить ситуацию, создавая "пузырь фильтров", который не позволяет пользователям ознакомиться с различными точками зрения. В конечном итоге это может привести к увеличению поляризации среди пользователей.
Люди в своих пузырях
Когда мы передаем платформам право принимать решения, мы фактически отдаем им контроль над тем, что мы видим. Социальные медиа с их продвинутыми алгоритмами эффективно занимаются целевым маркетингом, понимая наши предпочтения и мысли. Недавние расследования изучают роль Cambridge Analytica и подобных компаний в использовании данных 50 миллионов пользователей Facebook для влияния на важные политические события, такие как выборы президента США в 2016 году и референдум по Brexit в Великобритании. Если эти обвинения подтвердятся, это подчеркивает потенциал искусственного интеллекта для манипуляции обществом. Более свежий пример — использование Фердинандом Маркосом-младшим армии троллей в TikTok для привлечения молодых избирателей на президентских выборах на Филиппинах в 2022 году. Используя персональные данные и алгоритмы, ИИ может эффективно воздействовать на людей с помощью целевой пропаганды, основанной как на фактах, так и на вымысле.
Дипфейки
Дипфейки представляют собой измененные цифровым способом видеоролики или изображения, на которых человек выглядит так, будто говорит или делает что-то, чего на самом деле не происходило. Эта технология использует алгоритмы глубокого обучения для манипуляции существующими видео- и аудиоматериалами с целью создания убедительного поддельного контента.
"Никто не может быть уверен, что реально, а что нет", — говорит футурист Мартин Форд. "Это приводит к тому, что вы не можете доверять своим глазам и ушам; вы не можете полагаться на то, что исторически считалось надежным доказательством... Это станет серьезной проблемой".
Одной из главных причин, по которой дипфейки считаются опасными, является возможность их использования в злонамеренных целях. Например, дипфейки могут быть использованы для создания фальшивых видеодоказательств в судебных делах, обвинения людей в преступлениях, которых они не совершали, или даже для выдачи себя за политического деятеля с целью распространения ложной информации. Манипулируя медиа таким образом, дипфейки могут подорвать доверие к традиционным источникам информации и вызвать смятение в обществе.
Согласно данным компании DeepMedia, занимающейся разработкой инструментов для обнаружения синтетических медиа, в 2023 году в социальных сетях по всему миру было размещено 500 000 дипфейков. Это в три раза больше по сравнению с 2022 годом для видео и в восемь раз больше для аудио.
Среди недавних примеров злонамеренного использования дипфейков — создание поддельной порнографии с участием знаменитостей, когда их лица вставляются в порнографические видео без согласия. Также были случаи использования фальшивых видео для манипуляции ценами на акции, опорочивания людей или распространения политической пропаганды. Эти примеры подчеркивают возможность использования подделок в вредных и обманчивых целях.
Киберпреступность
Киберпреступность охватывает широкий спектр незаконных действий, осуществляемых с использованием цифровых технологий и сетей. Эти преступления могут включать мошенничество, кражу личных данных, утечку информации, распространение компьютерных вирусов и другие злонамеренные действия. Киберпреступники используют уязвимости в компьютерных системах и сетях для получения несанкционированного доступа, кражи конфиденциальной информации и нанесения ущерба как частным лицам, так и организациям.
Злоумышленники все чаще применяют доступные инструменты искусственного интеллекта, такие как ChatGPT, Dall-E и Midjourney, для проведения автоматизированных фишинговых атак, атак социальной инженерии и создания поддельных чат-ботов для обслуживания клиентов.
Согласно отчету SlashNext State of Phishing Report 2023, количество вредоносных фишинговых писем увеличилось на 1265%, что во многом связано с использованием ИИ для целевых атак.
Атаки с целью самозванства становятся все более распространенными. Мошенники используют ChatGPT и другие инструменты, чтобы выдавать себя за реальных людей и организации, занимаясь кражей личных данных и мошенничеством. Подобно фишинговым атакам, они используют чат-ботов для отправки голосовых сообщений, представляясь доверенными друзьями, коллегами или членами семьи, чтобы получить доступ к личной информации или счетам. В одном из примечательных случаев в марте 2019 года глава британского филиала немецкой энергетической компании стал жертвой мошенника, который имитировал голос генерального директора, что привело к переводу почти 200 000 фунтов стерлингов (243 000 долларов США) на счет в венгерском банке. Позже средства были переведены в Мексику и распределены по нескольким адресам, и следователи не смогли установить подозреваемых.
Киберпреступление и наказание
В 2023 году Центр жалоб на интернет-преступления (IC3) зафиксировал рекордное количество обращений от американских граждан: было подано 880 418 жалоб, а потенциальный ущерб превысил 12,5 миллиарда долларов. Это означает почти 10-процентный рост числа жалоб и 22-процентный рост убытков по сравнению с 2022 годом. Несмотря на эти впечатляющие цифры, важно отметить, что они, вероятно, недооценивают истинные масштабы киберпреступности в 2023 году. Например, когда ФБР недавно ликвидировало группу вымогателей Hive, выяснилось, что только около 20% жертв сообщили о преступлении в правоохранительные органы.
Вторжение в частную жизнь
Ярким примером социального наблюдения является использование технологии распознавания лиц в Китае в офисах, школах и других общественных местах. Эта технология позволяет не только отслеживать передвижения людей, но и предоставляет правительству возможность собирать обширные данные для мониторинга их действий, деятельности, отношений и идеологических убеждений.
Теперь за гражданами можно следить как в интернете, так и в повседневной жизни. Каждое их действие оценивается, например, по передвижению на перекрестках, курению в запрещенных местах и времени, проведенному за видеоиграми. Представьте, что каждое ваше действие влияет на ваш личный рейтинг в системе социальных кредитов.
Когда "Большой брат" следит за вами и принимает решения на основе собранной информации, это не только вторжение в частную жизнь, но и быстрое социальное угнетение.
Финансовые кризисы
В современном финансовом мире алгоритмы машинного обучения используются повсеместно: хедж-фонды и инвестиционные компании в значительной степени полагаются на эти модели для анализа акций и активов. Для принятия торговых решений в эти алгоритмы постоянно поступают огромные объемы традиционных и альтернативных данных. Однако все чаще высказываются опасения, что алгоритмическая торговля может спровоцировать следующий крупный финансовый кризис.
Одним из наиболее ярких примеров опасности, связанной с ошибками в алгоритмах, является флэш-кризис 2010 года, когда фондовый рынок резко упал почти на 1000 пунктов всего за несколько минут, а затем быстро восстановился. Несмотря на то, что рыночные индексы смогли частично восстановиться в тот же день, этот инцидент привел к потере почти 1 триллиона долларов рыночной стоимости. Такое резкое и внезапное падение цен во многом объясняется непредсказуемой реакцией автоматизированных торговых алгоритмов на изменения рыночной ситуации. Другим примером является флэш-крэш Knight Capital в 2012 году, когда сбой в алгоритме привел к убыткам в размере 440 миллионов долларов всего за 45 минут, что в конечном итоге стало причиной банкротства компании.
Эти инциденты служат важным напоминанием о потенциальных рисках, связанных с алгоритмической торговлей на финансовых рынках. Если алгоритмы не разрабатываются, не тестируются и не контролируются должным образом, они могут вызвать серьезные последствия. Финансовым учреждениям крайне важно тщательно проверять свои алгоритмы и внедрять эффективные практики управления рисками, чтобы избежать подобных катастроф в будущем.
Неконтролируемый суперинтеллект
Искусственный интеллект (ИИ) превосходит человеческий мозг по множеству параметров, включая скорость вычислений, внутреннюю связь, масштабируемость, объем памяти, надежность, возможность дублирования, редактирования и способности к обучению:
- ИИ может функционировать на частотах в несколько гигагерц, в то время как биологические нейроны имеют предельную частоту около 200 Гц.
- Аксоны передают сигналы со скоростью 120 м/с, тогда как компьютеры делают это на скорости света или электричества.
- ИИ легко масштабируется путем добавления нового оборудования, в отличие от человеческого интеллекта, который ограничен размерами мозга и эффективностью социальных взаимодействий.
- Объем рабочей памяти человека значительно меньше по сравнению с огромной памятью ИИ.
- Надежность транзисторов в ИИ выше, чем у биологических нейронов, что обеспечивает большую точность и меньшую избыточность.
- Модели ИИ могут легко дублироваться, модифицироваться и учиться на опыте других ИИ более эффективно, чем это делают люди.
В будущем ИИ может достичь уровня интеллекта, значительно превышающего человеческий, что приведет к так называемому "взрыву интеллекта".
Сверхинтеллект и угроза вымиранию человечества
Идея рекурсивного самосовершенствования, при которой ИИ постоянно улучшает себя с экспоненциальной скоростью, вызывает опасения относительно последствий создания сверхразумного существа. Представьте ситуацию, в которой ИИ достигает такого уровня интеллекта, что может переосмыслить и превзойти человека во всех аспектах. Такой сверхинтеллект может принимать решения, которые окажут значительное влияние на наше общество и образ жизни. Подобно тому, как люди сейчас контролируют судьбу многих видов, судьба человечества может оказаться в руках сверхразумного ИИ.
Чрезмерная зависимость от ИИ и юридическая ответственность
Слишком сильная зависимость от технологий ИИ может привести к снижению человеческого влияния и функционирования в различных сферах жизни. Например, использование ИИ в здравоохранении может уменьшить уровень эмпатии и разумности у медицинских работников. Кроме того, применение генеративного ИИ в творчестве может подавить креативные способности и эмоциональное самовыражение. Чрезмерное взаимодействие с ИИ также может снизить уровень общения с окружающими и социальные навыки. Хотя ИИ может быть полезен для автоматизации задач, существует опасение, что он негативно скажется на общем интеллекте человека и его способности к взаимодействию.
Кроме того, есть потенциальные риски, которые могут привести к физическому ущербу. Например, если компании будут полагаться исключительно на прогнозы ИИ для планирования технического обслуживания без дополнительных проверок, это может вызвать сбои в работе оборудования и угрожать безопасности работников. В здравоохранении модели ИИ могут привести к ошибочным диагнозам.
Помимо физического вреда, ИИ может представлять опасность и в нефизическом плане при отсутствии должного регулирования. Это включает в себя вопросы цифровой безопасности, такие как клевета или диффамация, финансовую безопасность, например, неправильное использование ИИ в финансовых рекомендациях или оценке кредитоспособности, а также проблемы справедливости, связанные с предвзятостью ИИ, что может привести к несправедливым отказам или принятию в различные программы.
И если что-то пойдет не так, кто будет нести ответственность? Сам ИИ, разработчик, создавший его, компания, внедрившая его в эксплуатацию, или оператор, если в процессе участвовал человек?