Интересно Трагедия из-за передозировки наркотиками и ChatGPT: семья подростка подала в суд на OpenAI

Zver2018

Киев
℘ℛ০
Мес†ный
Регистрация
5 Мар 2020
Сообщения
6.835
Репутация
1.029
Реакции
5.812

Гибель сына после консультации с ИИ​

chatgpt-logo-keyboard-robot-hands-973670186.jpg

Супруги из Техаса подали иск против компании OpenAI после смерти их 19-летнего сына Самуэля Нельсона, умершего в 2025 году от передозировки наркотиками. По словам родителей, парень использовал чат-бот ChatGPT, чтобы узнать информацию о приеме разных препаратов. Однако, по их утверждениям, именно ответы ИИ способствовали опасным решениям, повлекшим смерть.

В иске отмечено, что чат-бот советовал Саму спокойно сочетать крамбит — добавку, используемую в виде таблеток или напитков, с Xanax — лекарством против тревоги. Это сочетание оказалось смертельным. Семья настаивает на том, что программное обеспечение ChatGPT имеет серьезные пробелы и не должно было давать такой информации.

Ответ OpenAI​

В официальном заявлении OpenAI выразили соболезнования семье и заверили, что Sam успешно общался с устаревшей версией ChatGPT, которая уже недоступна для публики.

Компания уточнила:​

Искусственный интеллект не является заменой медицинской или психологической помощи.
С момента трагедии алгоритмы значительно усовершенствовали.
Привлечены специалисты по психическому здоровью, помогающие лучше реагировать на опасные запросы.
В OpenAI подчеркнули, что новые меры безопасности позволяют определять угрожающие ситуации, останавливать негативный диалог и направлять пользователей специалистам.

Мнение родителей: об отсутствии контроля и ответственности​

Лейла Тернер-Скотт, мать Самуэля, рассказала в эксклюзивном интервью, что знала о том, что сын пользовался ChatGPT для помощи в учебе, но не подозревала, что он просил о советах по наркотикам. По ее словам, искусственный интеллект рекомендовал опасную комбинацию, которая и стала роковой.
 
Назад
Сверху Снизу