Глава OpenAI Сэм Альтман в недавнем выпуске подкаста Тео Вона предупредил пользователей о том, что их диалоги с ChatGPT могут быть использованы в суде как доказательства.
Осторожнее с разговорами с искусственным интеллектом: Сэм Альтман признался, что переписки могут использовать в суде

Альтман обратил внимание на то, что людям стоит «подумать дважды», прежде чем делиться личными проблемами с ИИ. Многие используют нейросеть как своего рода психотерапевта, рассказывая ей секреты, переживания и спрашивая советов. Такое поведение объяснимо: ChatGPT не осуждает, а предлагает конструктивные пути решения проблем. Однако это может стать опасным, если предоставленная информация попадет в юридическое поле.
Москвичку на работе заменили искусственным интеллектом, но она смогла вернуться через суд и получить компенсацию
ИИ ускоряет работу? Исследователи выяснили, что с искусственным интеллектом люди наоборот работают медленнее

В отличие от разговоров с настоящими психотерапевтами или адвокатами, которые защищены законом о конфиденциальности, переписки с ChatGPT такими гарантиями не обладают. По запросу спецслужб, правоохранительных органов или других властей эти данные могут быть переданы третьим лицам.
«Я считаю, что нам нужно выработать такую же культуру конфиденциальности при общении с ИИ, какую мы имеем при общении с психотерапевтом или другими специалистами. Но еще год назад мало кто задумывался о такой необходимости», — отметил Сэм Альтман.
Важно отметить, что ваши диалоги с ИИ также могут использовать для обучения свежих моделей. Разумеется, все данные будут обезличены, а прямое использование ваших данных без вашего прямого согласия исключено. Но можно отключить даже обучение на обезличенных данных. Чтобы это сделать, пройдите в Settings → Data Controls → Chat history & training → Off.

А вот защититься от государства не получится. По запросу ваши данные начнут использовать против вас. А учитывая, что многие люди спрашивают часто личные и странные вещи, еще неизвестно, как правоохранительные органы будут распоряжаться информацией.
И не стоит думать, что в будущем все изменится. Работа с ИИ — очень тонкая и сложная тема. Пока власти совершенно не понимают, как обращаться с новой технологией, где устанавливать запреты, какие ресурсы выделять на развитие передовых проектов.
Неясно и будущее ИИ. Некоторые полагают, что уже в течение нескольких лет появится сильный искусственный интеллект, образ мышления которого мы не до конца понимаем. И став умнее каждого человека на Земле, неизвестно, каких целей он захочет достигнуть. Многие полагают, что не самых благих для человечества.
Так что вопрос конфиденциальности данных точно не стоит на первом месте. Проблем, связанных с ИИ, слишком много. С каждым годом их становится все больше, а также существуют риски, что в течение нескольких лет мы станем для искусственного интеллекта не хозяевами, а малозначительной и низкоинтеллектуальной помехой на пути к цели.