«Остановите эту машину!»: Илон Маск, Возняк и еще 1000 экспертов призвали приостановить GPT-4. Правда ли, что ИИ угрожает человечеству?
![«Остановите эту машину!»: Илон Маск, Возняк и еще 1000 экспертов призвали приостановить GPT-4. Правда ли, что ИИ угрожает человечеству? «Остановите эту машину!»: Илон Маск, Возняк и еще 1000 экспертов призвали приостановить GPT-4. Правда ли, что ИИ угрожает человечеству?](https://www.mentoday.ru/upload/img_cache/07e/07e8ca7f38056bc7c160a782211a1ff7_ce_7200x4800x264x0_cropped_510x340.webp)
Более 1000 экспертов в области ИИ, включая Илона Маска и сооснователя Apple Стива Возняка, подписали открытое письмо с просьбой о приостановке «экспериментов с искусственным интеллектом» на полгода. Настрой серьезный: влиятельные эксперты грозятся обратиться к правительству, если обучение нейросетей не будет приостановлено оперативно.
Сделаем перерыв
Даже Илон Маск — олицетворение прогресса в мире технологий — переживает о возможных последствиях плотного соседства людей и стремительно развивающихся нейросетей. Эксперты не выступают против технологий и отмечают положительные стороны обучения ИИ, но гонка технологий может обернуться трагедией для всего человечества.
![](https://www.mentoday.ru/upload/img_cache/d18/d187b2399164ef96e9435b747275a10d_cropped_510x316.webp)
«В последние месяцы лаборатории ИИ оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — объяснили свою позицию авторы письма.
Почему именно GPT-4?
Сегодня GPT-4 считается самой продвинутой системой ИИ, разработанной OpenAl.
![](https://www.mentoday.ru/upload/img_cache/24c/24c611aceafeb8d762eed378430140a2_cropped_510x340.webp)
Могут ли запретить пользоваться GPT-4?
Нет, речь идет только о приостановке разработок новых моделей искусственного интеллекта, которые могут превзойти даже самую продвинутую систему. Даже если мораторий введут на полгода, пользователи все равно смогут работать с GPT-4.
В течение 6 месяцев эксперты должны будут изучить созданные программы на основе ИИ, чтобы оценить уровень безопасности, надежности и прозрачности. Также эксперты в области ИИ призвали организовать органы власти, которые могли бы контролировать стремительное развитие технологий.
Все настолько серьезно?
Ранее сам разработчик нейросети ChatGPT заявил, что боится своего детища: «Меня особенно беспокоит, что эти модели могут быть использованы для масштабной дезинформации. Теперь, когда они все лучше пишут компьютерный код, их могут использовать для наступательных кибератак».
И не стоит забывать, что Илон Маск, подписавший открытое письмо, сам стоял у истоков OpenAl — бизнесмен знает, с чем имеет дело.