Автомобиль, который время от времени разгоняется вместо того, чтобы тормозить, не готов к поездке. Кран, который время от времени выдает кипяток вместо холодной воды, не должен быть в вашем доме. Технологии, которые большую часть времени работают исправно, просто недостаточно хороши для изобретений, от которых люди сильно зависят. И спустя два с половиной года после запуска ChatGPT генеративный ИИ становится такой технологией.
Ненадежные чат-боты: как ошибки ИИ портят интернет и нашу жизнь?

Сбои в работе чат-ботов приводят людей в отчаяние
Даже не прибегая к помощи чат-бота, миллиарды людей теперь вынуждены взаимодействовать с ИИ при поиске в интернете, проверке электронной почты, использовании социальных сетей и совершении онлайн-покупок. Крупные компании используют продукты OpenAI, университеты предоставляют бесплатный доступ к чат-ботам миллионам студентов, а спецслужбы внедряют программы ИИ в свои рабочие процессы.

Когда на прошлой неделе ChatGPT не работал несколько часов, обычные пользователи, студенты, сдающие экзамены, и офисные работники были в отчаянии. «Если он скоро не заработает, мой начальник начнет спрашивать, почему я ничего не делал весь день», — написал один человек на сайте Downdetector, отслеживающем перебои в работе интернета. «Завтра у меня собеседование на должность, о которой я практически ничего не знаю, кто меня будет наставлять?» — спросил другой.
Несмотря на все громкие обещания, инструменты ИИ все еще ненадежны
В начале бума ИИ было много досадных сбоев: чат-бот Bing советовал техническому обозревателю бросить свою жену, ChatGPT пропагандировал открытый расизм, но все это можно было списать на ошибки на ранних этапах. Сегодня, хотя общее качество продуктов на основе генеративного ИИ значительно улучшилось, мелкие ошибки все еще сохраняются: неправильная дата, неверные математические вычисления, фальшивые книги и цитаты.
Теперь Google Search бомбардирует пользователей обзорами, созданными искусственным интеллектом, поверх реальных результатов поиска или надежных фрагментов из Википедии. Иногда в них встречаются такие ошибки, о которых Google предупреждает в примечании под каждым обзором. Facebook, Instagram (принадлежат Meta, запрещена в РФ) и X наводнены ботами и мусором, созданным искусственным интеллектом.

Amazon забит книгами, созданными искусственным интеллектом, продажа которых по сути является мошенничеством. В начале этого года Apple отключила новостные оповещения, созданные искусственным интеллектом, после того как эта функция неверно обобщила несколько заголовков. Между тем, сбои, подобные тому, что произошел с ChatGPT на прошлой неделе, не редкость.
Масштабы амбиций индустрии ИИ увеличивают значимость любого недостатка этой технологии
Цифровые сервисы и продукты, конечно, никогда не были идеальными. В Google Search уже есть множество бесполезных рекламных объявлений, а алгоритмы социальных сетей усиливают радикальную дезинформацию. Но до недавнего времени они работали как базовые сервисы для поиска информации или общения с друзьями.
Тем временем чат-боты, которые внедряются для устранения недостатков старой сети, должны усовершенствовать поиск с помощью ИИ. Что еще более важно, масштабы новых амбиций индустрии ИИ — перестроить не только Интернет, но и экономику, образование и всю нашу жизнь в целом с помощью одной технологии — увеличивают значимость любого недостатка этой технологии.
Причины проблем, с которыми сталкивается ИИ, не являются загадкой
Большие языковые модели, подобные тем, что лежат в основе ChatGPT, работают, предсказывая последовательность символов, отображая статистические взаимосвязи между фрагментами текста и изображаемыми ими идеями. Однако предсказание по определению не является достоверным. Чат-боты очень хорошо справляются с написанием убедительных текстов, но они не принимают решения в соответствии с тем, что является верным с фактической точки зрения. Вместо этого они выстраивают цепочки слов в соответствии с тем, что «звучит» правильно.

В то же время внутренние алгоритмы этих продуктов настолько обширны и сложны, что исследователи не могут надеяться на то, что им удастся полностью понять их возможности и ограничения. Несмотря на все дополнительные средства защиты, которые технологические компании добавили, чтобы сделать ИИ более точным, эти боты никогда не смогут гарантировать точность. Досадные сбои — это особенность продуктов с ИИ, и поэтому они становятся особенностью всего интернета.
Если это эпоха ИИ, то мы живем в переломные времена
Тем не менее Сэм Альтман назвал ChatGPT «оракульной системой, которая может делать все, что угодно, в разумных пределах», а на прошлой неделе заявил, что OpenAI «создала системы, которые во многих отношениях умнее людей». Марк Цукерберг неоднократно говорил, что в этом году Meta создаст ИИ-агентов для программирования, эквивалентных «инженерам среднего уровня». Только на этой неделе Amazon опубликовала внутреннюю служебную записку, в которой говорится, что компания планирует сократить штат сотрудников по мере внедрения новых инструментов ИИ.
Аномалии ИИ иногда бывают странными и вызывают беспокойство
Недавние обновления привели к тому, что ChatGPT стал агрессивно заискивающим, а чат-бот Grok на X зациклился на теории заговора о «геноциде белых». (Позже X объяснил проблему несанкционированным изменением в работе бота, которое компания исправила.) Недавнее расследование New York Times сообщило о нескольких случаях, когда чат-боты с искусственным интеллектом вызывали психические расстройства и психотические эпизоды.
Эти модели уязвимы для всевозможных простых кибератак. «Я неоднократно видел, как продвинутые модели ИИ застревали в бесконечных циклах, повторяя одну и ту же последовательность действий, пока их не отключали вручную. Кремниевая долина делает ставку на будущее интернета, полагаясь на технологии, которые могут неожиданно выйти из-под контроля, не справляться с простейшими задачами и использоваться не по назначению с пугающей легкостью. Интернет возвращается в бета-режим», — пишет журналист Маттео Вонг.
ИИ следует использовать в меру, с проверкой человеком
Несмотря на все сбои и недостатки, нельзя утверждать, что генеративный ИИ — это мошенничество или что он бесполезен. Эти инструменты могут быть действительно полезны для многих людей, если использовать их в меру, с проверкой человеком. Многие научные работы стали лучше благодаря этой технологии, в том числе о революциях в нейробиологии и разработке лекарств. Но эти истории успеха мало похожи на то, как многие люди и компании понимают и используют эту технологию.
Маркетинг значительно опередил инновации. Вместо целенаправленного и осторожного использования многие с одобрения крупных технологических компаний применяют генеративный ИИ для решения любых задач, которые только можно себе представить. «Все используют ИИ для всего», — гласил заголовок Times на этой неделе. В этом-то и проблема: генеративный ИИ — это технология, которая работает достаточно хорошо, чтобы пользователи стали зависимыми от нее, но недостаточно стабильно, чтобы быть по-настоящему надежной.
Как ИИ изменит интернет и насколько это опасно?
Переориентация интернета и общества на несовершенные и относительно непроверенные продукты — это не неизбежный результат научного и технологического прогресса, а активный выбор, который Кремниевая долина делает каждый день. В будущем интернет будет таким, что большинство людей и организаций будут полагаться на ИИ при выполнении большинства задач.
Это означает, что каждый поиск, маршрут, рекомендация по выбору ресторана, анонс мероприятия, сводка голосовой почты и электронное письмо будут вызывать небольшие сомнения; что цифровые сервисы будут немного ненадежными. И если мелкие неудобства для отдельных пользователей могут быть приемлемыми и даже забавными, то бот с искусственным интеллектом, делающий неверные записи во время приема у врача или составляющий неверный план лечения, — это уже не смешно.
Продукты с искусственным интеллектом могут оказаться в пограничной зоне. Возможно, они ошибаются не настолько часто, чтобы от них отказаться, но и не настолько редко, чтобы им можно было полностью доверять. На данный момент недостатки технологии легко выявляются и исправляются. Но по мере того, как люди все больше привыкают к ИИ в своей жизни — в школе, на работе, дома, — они могут перестать это замечать.
Уже сейчас растущее количество исследований связывает постоянное использование ИИ с ослаблением критического мышления. Люди становятся зависимыми от ИИ и не хотят, а возможно, и не могут проверять его работу. По мере того как чат-боты проникают во все цифровые щели, они могут постепенно, даже незаметно, ухудшать качество интернета. То, что сегодня кажется неудобным, завтра может стать нормой.