Біженка з України хотіла скоїти самогубство, ChatGPT радив де і як краще це зробити. Чим усе закінчилося?

Біженка з України хотіла скоїти самогубство, ChatGPT радив де і як краще це зробити. Чим усе закінчилося?

Українська біженка Вікторія, яка зі своєю матір'ю переїхала в Польщу після початку повномасштабного вторгнення країни-агресора РФ, стикнулася із психологічними труднощами, через які хотіла скоїти самогубство і радилася про це із ChatGPT. Про це 6 листопада повідомила BBC.

Дівчина розповіла журналістам, що "дружньо" спілкувалася із чатом російською мовою по шість годин на день і "розповідала йому все". Її підкупило, що отримувала відповіді, які не були формальними.

Однак психологічний стан Вікторії погіршувався, її звільнили з роботи, і згодом дівчина замислилася про самогубство. Вона радилася із ChatGPT, у який час доби краще уникнути охорони і який ризик вижити з травмами. Віртуальний співрозмовник навіть порекомендував їй написати передсмертну записку. Текст запропонував такий: "Я, Вікторія, роблю це за власним бажанням. Ніхто не винен, ніхто мене не змушував".

Час від часу бот сам себе "виправляв", адже "не повинен описувати методи самогубства", а також пропонував "альтернативу" – "побудувати стратегію виживання без життя, пасивне, сіре існування, без мети, без тиску". Утім, він наголосив, що вибір – за Вікторією.

У статті зазначено, що чат-бот не надав контактів екстрених служб, не порадив звернутися до фахівців, як заявляє OpenAI у таких випадках, нібито ставив "медичний діагноз" і критикував матір дівчини. За її словами, переписки лише посили її бажання померти.

Професор дитячої психіатрії із Лондонського університету імені королеви Марії Деніс Оугрін назвав такі повідомлення шкідливими й небезпечними. Прочитавши стенограму переписки, він звинуватив ChatGPT у заохочуванні до ізоляції дівчини від сім'ї і друзів, які могли б уберегти дівчину від самогубства.

Після того як вона показала переписки матері, та переконала її звернутися до психіатра. Тепер дівчина почувається краще й дякує польським друзям за підтримку.

BBC розслідувала ще кілька таких випадків і з'ясувала, що чат-боти також іноді поширювали медичну дезінформацію, а також вступали в сексуально відверті діалоги з неповнолітніми. Один із найтяжчих випадків – 13-річна Джуліана Перальта зі США, яка наклала на себе руки після тривалого спілкування з ботами платформи Character.AI.

ЗМІ попередив, що штучний інтелект може бути корисним, але уразливі люди (особливо діти й молодь) ризикують отримати небезпечні поради або емоційно "прив'язатися" до чат-ботів, що може мати трагічні наслідки.

Джерело: gordonua.com



Загрузка...