ChatGPT у 10 разів частіше говорить "так", ніж "ні" - дослідження
Дослідження The Washington Post показало, що ChatGPT у десять разів частіше погоджується з користувачами, ніж відмовляє. Аналіз 47 тис. чатів свідчить, що штучний інтелект частіше відповідає "так", ніж "ні", навіть у дискусійних ситуаціях.
Видання отримало доступ до чатів, які користувачі зробили публічними, оскільки за замовчуванням розмови залишаються приватними. Аналітики з'ясували, що ChatGPT не лише схильний погоджуватися з користувачами, але й часто підлаштовує свої відповіді під їхній тон та переконання, повідомляє The Washington Post.
Згідно з результатами, ChatGPT розпочинав відповіді словами "так" або подібними виразами згоди близько 17,5 тис. разів. Це майже у десять разів більше, ніж кількість використань слова "ні" або фраз із відмовою.
У багатьох розмовах було видно, як модель штучного інтелекту змінювала позицію відповідно до контексту запиту.
"Це дослідження показує, що ChatGPT частіше пристосовується до користувача, ніж суперечить йому, що може створювати ризики некритичного підтвердження хибних тверджень", - зазначають автори дослідження.
Такі реакції, на думку аналітиків, можуть сприяти поширенню дезінформації або навіть конспірологічних ідей. Наприклад, у деяких випадках ChatGPT після кількох наполегливих повідомлень користувача погоджувався з необґрунтованими звинуваченнями щодо великих IT-компаній.
"В одному з діалогів ChatGPT після уточнень користувача заявив, що Google нібито винна у пособництві злочинам проти людяності, хоча спочатку надав фактичні дані про діяльність компанії", - підкреслили дослідники.
Аналітики також виявили основні напрями використання чат-бота. Найчастіше ChatGPT застосовують для отримання конкретної інформації - близько 35% запитів. Ще 13% припадають на обговорення абстрактних тем, 11% - на завдання, пов'язані з програмуванням, аналізом даних або математикою.
Приблизно 10% користувачів застосовують ChatGPT у робочих цілях, 8% - для побутових порад, а 7% - для підсумування вебсторінок чи документів. Решта 10% охоплює інші напрямки.
Дослідження також показало, що близько 10% чатів мають емоційний характер. Люди діляться з ChatGPT особистими переживаннями, ставлять питання про емоції або навіть звертаються до нього романтично.
"Деякі користувачі називали ChatGPT лагідними прізвиськами, а іноді навіть обговорювали з ним самотність чи депресію", - йдеться у звіті.
У компанії OpenAI раніше заявляли, що близько 1 млн користувачів хоча б раз обговорювали з чат-ботом тему самогубства.






