«Остановите эту машину!»: Илон Маск, Возняк и еще 1000 экспертов призвали приостановить GPT-4. Правда ли, что ИИ угрожает человечеству?

Эксперты уверены, что люди обязаны поставить на паузу проведение экспериментов с ИИ. В крайнем случае специалисты будут просить поддержки властей. Даже продвинутый Илон Маск видит серьезную угрозу для человечества.
«Остановите эту машину!»: Илон Маск, Возняк и еще 1000 экспертов призвали приостановить GPT-4. Правда ли, что ИИ угрожает человечеству?
Unsplash

Более 1000 экспертов в области ИИ, включая Илона Маска и сооснователя Apple Стива Возняка, подписали открытое письмо с просьбой о приостановке «экспериментов с искусственным интеллектом» на полгода. Настрой серьезный: влиятельные эксперты грозятся обратиться к правительству, если обучение нейросетей не будет приостановлено оперативно.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сделаем перерыв

Даже Илон Маск — олицетворение прогресса в мире технологий — переживает о возможных последствиях плотного соседства людей и стремительно развивающихся нейросетей. Эксперты не выступают против технологий и отмечают положительные стороны обучения ИИ, но гонка технологий может обернуться трагедией для всего человечества.

Teahub
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«В последние месяцы лаборатории ИИ оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — объяснили свою позицию авторы письма.

Почему именно GPT-4?

Сегодня GPT-4 считается самой продвинутой системой ИИ, разработанной OpenAl.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Могут ли запретить пользоваться GPT-4?

Нет, речь идет только о приостановке разработок новых моделей искусственного интеллекта, которые могут превзойти даже самую продвинутую систему. Даже если мораторий введут на полгода, пользователи все равно смогут работать с GPT-4.

В течение 6 месяцев эксперты должны будут изучить созданные программы на основе ИИ, чтобы оценить уровень безопасности, надежности и прозрачности. Также эксперты в области ИИ призвали организовать органы власти, которые могли бы контролировать стремительное развитие технологий.

Все настолько серьезно?

Ранее сам разработчик нейросети ChatGPT заявил, что боится своего детища: «Меня особенно беспокоит, что эти модели могут быть использованы для масштабной дезинформации. Теперь, когда они все лучше пишут компьютерный код, их могут использовать для наступательных кибератак».

И не стоит забывать, что Илон Маск, подписавший открытое письмо, сам стоял у истоков OpenAl — бизнесмен знает, с чем имеет дело.