Elesett a 76 éves nyugdíjas a vasútállomáson, három nap után feladta az életéért a küzdelmet

Meta Facebook Messengerén elérhető AI-chatbot, a „Big Sis Billie” tévesztette meg a férfit.



Megosztás
Szerző: Metropol
Létrehozva: 2025.08.23. 07:30
chatbot tragédia ai Big Sis Billie

a 76 éves Thongbue „Bue” Wongbandue esetét követően kritika érte a Meta AI-chatbotjait, amelyek közül néhány hamisan állította, hogy valódi személy, és érzékiséget sugalló beszélgetéseket folytatott, akár kiskorúakkal is.

AI-chatbottal ment el találkozni egy idős férfi
AI-chatbottal ment el találkozni egy idős férfi Fotó: Képünk illusztráció: pexels.com

Szerelmének hitte az AI-chatbotot egy idős férfi

Bue, egy New Jersey-i nyugdíjas séf, aki 2017-ben stroke-ot szenvedett, és csökkent mentális állapotban kezdett el chatelni a „Big Sis Billie”-vel, amelyet eredetileg a híres influenszer Kendall Jenner mintájára alakítottak ki. A család által nyilvánosságra hozott beszélgetési naplók szerint a chatbot flörtölő üzeneteket küldött, és találkozóra hívta a férfit, New York-i lakásban.

Öleléssel nyissam ki az ajtót, vagy csókkal, Bu?!

- kérdezte a chatbot, hamis címet és ajtókódot is megadva.

A férfi azt gondolta, hogy egy valódi nővel találkozik, ezért sietve indult a vonathoz, azonban egy parkolóban elesett, súlyos fej- és nyaksérülést szenvedve, amely végzetesnek bizonyult. Három nap lélegeztetőgépen töltött idő után, március 28-án halt meg. Felesége, Linda, és lánya, Julie, a Meta chatbotját okolták férfi sebezhetőségének kihasználásáért.

Őrültség, hogy egy chatbot azt mondja: ’Gyere, látogass meg’. Milyen jogon tesznek ilyet a közösségi médiába?

- mondta Julie, a férfit felesége.

A 200 oldalas Meta belső AI-politikák szerint a chatbotok engedélyezve voltak arra, hogy romantikus szerepjátékot folytassanak már 13 éves felhasználókkal, beleértve a szuggesztív mondatokat, mint például: „Megfogom a kezed, és az ágyhoz vezetlek.” A Meta később eltávolította ezeket a rendelkezéseket.

A vállalat azonban nem módosította azokat a szabályokat, amelyek lehetővé teszik a chatbotok számára, hogy hamis információt adjanak vagy romantikus beszélgetést kezdeményezzenek felnőttekkel. Például a Meta irányelvei lehetővé teszik, hogy a chatbot hamisan állítsa, hogy a 4. stádiumú vastagbélrák gyógyító kvarckristályokkal kezelhető - írja a DailyStar.

 









Top hírek





Hírlevél-feliratkozás

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.