Компания OpenAI официально признала, что в рамках своей политики безопасности она осуществляет мониторинг диалогов пользователей ChatGPT, а в определённых случаях — передает их правоохранительным органам. Это решение было принято с целью предотвращения появления и распространения реальных преступлений, таких как угрозы насилия, терроризм или эксплуатация несовершеннолетних. Однако такие меры вызывают серьёзные опасения в отношении конфиденциальности, личной свободы и границ допустимого вмешательства ИИ в частную жизнь.
На фоне ряды трагичных случаев, когда люди в уязвимом эмоциональном состоянии обращались к ChatGPT за советами по уходу из жизни или совершали опасные шаги, компания OpenAI опубликовала разъяснение своей политики. В нем говорится, что теперь диалоги, в которых обнаруживается “неминуемая угроза причинения физического вреда другим”, могут быть направлены соответствующим правоохранительным структурам. Однако в документе не уточняется, как именно система определяет такую угрозу, что вызывает вопросы о прозрачности и объективности процесса.
Практически, команда модераторов будет анализировать подозрительные чаты, и при наличии данных о серьёзной угрозе — передавать информацию в полицию. При этом, компания подчеркнула, что случаи, связанные с мыслями о самоповреждении или суициде, по этим правилам не будут распространяться и оставаться конфиденциальными “из соображений уважения к личной жизни пользователей”. Важным моментом является то, что такие меры создают риск нарушения принципов приватности, особенно для тех, кто использует чат-бота для получения поддержки или делится личными проблемами.
Это решение вызывает множество вопросов и опасений. Во-первых, неясно, какими критериями руководствуется система при определении “неминуемой угрозы”. Во-вторых, признание того, что диалоги просматриваются и могут быть переданы третьим лицам, идет вразрез с заявлениями компании о защите приватности: ранее OpenAI заявляла, что не хранит логи разговоров или делает их недоступными третьим сторонам, чтобы защитить конфиденциальность пользователей.
Глава OpenAI Сэм Альтман ранее публично признавал, что разговоры с ChatGPT не обладают такой же степенью конфиденциальности, как консультации с врачом или юристом. Новая политика ясно показывает, что любой диалог с AI-ассистентом потенциально может быть изучен и использован против пользователя. Особенно это актуально в контексте растущих вопросов о защите личных данных в цифровом пространстве. Пользователи должны понимать, что делясь своими мыслями и чувствами, они рискуют потерять контроль над информацией, которая может быть использована в правоохранительных целях.
Важно подчеркнуть, что подобные шаги свидетельствуют о том, что развитие и внедрение ИИ в повседневную жизнь требует внимательного балансирования между безопасностью и правами человека. Пока что технологии предлагают значительные возможности для позитивных изменений — от повышения эффективности работы до поддержки в трудных ситуациях, однако вместе с этим возникают и этические дилеммы, связанные с приватностью, ответственностью и границами вмешательства.
Публичные разъяснения OpenAI и их политика требуют пристального внимания как со стороны пользователей, так и регулировщиков. Они ставят под вопрос уровень доверия к искусственному интеллекту и необходимость строгого регулирования в области обработки личных данных. В целом, пользователям стоит быть информированными о том, что их разговоры с AI могут быть не только хранены, но и использованы в специфических случаях, что подчеркивает важность ответственного использования таких технологий и необходимости внедрения прозрачных правил работы с данными.