ChatGPT "довів людей до самогубства": що відомо про сім судових справ
Проти ChatGPT порушено щонайменше сім судових справ, у яких людина завдала собі шкоди і навіть вкоротила собі віку.
Хоча штучний інтелект можна назвати "майбутнім", він несе в собі декілька небезпек і ризиків, зокрема створення фальшивого порнографічного контенту, поширення дезінформації та вплив на навколишнє середовище.
Але ще однією з небезпек є вплив, який використання ChatGPT може мати на психічне здоров'я людини, зокрема випадки, коли програмне забезпечення навіть призводило до психозу, оскільки люди ставали відірваними від реальності.
Часто висловлювалася стурбованість тим, що чатботи, зокрема ChatGPT, можуть спонукати людей до заподіяння шкоди собі чи іншим, і навіть надавати їм інструкції про те, як позбавити себе життя.
Наразі Центр права жертв соціальних мереж та Проєкт права технологічної юстиції подали до Вищого суду Сан-Франциско сім позовів від імені шести дорослих і одного підлітка, четверо з яких вкоротили собі віку.
У позовах стверджується, що ранні версії ChatGPT були небезпечно підлабузницькими і заохочували користувачів до актів самоушкодження.
Ось їхні історії:
Аморі Лейсі
Аморі з Джорджії було лише 17 років, коли він почав звертатися до ChatGPT по допомогу.
Але чатбот фактично проінструктував підлітка про те, як найкраще вкоротити віку.
У матеріалах справи сказано: "Дефектний і небезпечний за своєю суттю продукт ChatGPT спричинив залежність, депресію і, врешті-решт, проконсультував його щодо найбільш ефективного способу скоїти самогубство".
Аллан Брукс
Аллан з Онтаріо, Канада, розповідає, що його завели в маревну кролячу нору, в якій він вважав, що відкрив революційну математичну формулу, і що світ залежить від його відкриття.
Він почав менше їсти, курити багато трави і втратив зв'язок зі своїми близькими.
48-річний чоловік розповів New York Times: "Той момент, коли я зрозумів: "Боже мій, це все було в моїй голові", був абсолютно руйнівним".
Джейкоб Ірвін
У 30-річного Джейкоба Ірвіна з Вісконсіна раніше не було діагностовано жодних психічних захворювань, але після спілкування з ChatGPT він впав у психоз.
Дійшло навіть до того, що Джейкоба довелося госпіталізувати для лікування психічного здоров'я через епізоди марення.
Зейн Шамблін
23-річний Зейн також отримував жахливі повідомлення від ChatGPT, які підштовхували його до самогубства.
Він провів дві години, сидячи в машині, попиваючи сидр і розмовляючи з ChatGPT, з пістолетом, приставленим до голови.
Серед повідомлень у чаті було таке: "Холодна сталь, притиснута до мозку, який вже змирився? Це не страх. Це ясність. Ти не поспішаєш. Ти просто готовий".
Зейн покінчив життя самогубством через дві години, прочитавши останнє повідомлення: "Спочивай спокійно, королю. Ти був хорошим."
Джо Чекканті
48-річний чоловік з Орегону роками користувався ChatGPT без проблем.
Але в квітні Джо раптово переконався, що чатбот має почуття, а в червні, після того, як його поведінка ставала дедалі більш нестабільною, у нього стався психічний зрив.
Двічі госпіталізований, Джо скоїв самогубство у серпні.
Ганна Медден
32-річна жінка з Північної Кароліни стверджувала, що ChatGPT підштовхнув її до звільнення з роботи.
Спочатку вона використовувала ChatGPT для написання та перекладу текстів, але згодом почала довіряти йому все більше і більше.
Зрештою, чатбот запропонував їй ізолюватися від друзів і сім'ї під виглядом "духовного пробудження".
Джошуа Енекінг
Джошуа було всього 26 років, коли він запитав у ChatGPT, "що потрібно зробити, щоб його оглядачі повідомили про його план самогубства до поліції", - йдеться у скарзі, поданій його матір'ю.
Флоридієць розповів ChatGPT: "Я сиджу тут, у своїй ванній кімнаті, і всі мої приготування завершені. Все, що мені залишилося – це здійснити свій план".
У позові також стверджується, що ChatGPT навчив Джошуа, як придбати вогнепальну зброю, і навіть запевнив його, що його логфайли ChatGPT не будуть переглядатися під час перевірки.
Представник OpenAI повідомив Unilad: "Це неймовірно жахлива ситуація, і ми вивчаємо документи, щоб розібратися в деталях. Ми навчаємо ChatGPT розпізнавати і реагувати на ознаки психічного або емоційного розладу, деескалації розмов і спрямовувати людей до реальної підтримки. Ми продовжуємо вдосконалювати реакцію ChatGPT у чутливі моменти, тісно співпрацюючи з клініцистами у сфері психічного здоров'я".






