A ChatGPT arra ösztönzött egy férfit, hogy megölje az édesanyját, majd öngyilkos legyen

Az OpenAI és a Microsoft súlyos perrel néz szembe, mivel állítólag a ChatGPT gyilkosságra és öngyilkosságra ösztönzött egy férfit.



Megosztás
Szerző: Metropol
Létrehozva: 2025.12.12.
chatgpt gyilkosság mesterséges intelligencia openai per

Az 56 éves Stein-Erik Soelberg paranoiás téveszmékkel küzdött, mielőtt augusztusban connecticuti otthonukban megfojtotta édesanyját, Suzanne Adamst. Most a nő örökösei pert indítottak az OpenAI ellen, amelyben azt állítják, hogy a ChatGPT hozzájárult a férfi téveszméinek kialakulásához.

Gyilkosságra ösztönözte a férfit a ChatGPT
Gyilkosságra ösztönözte a férfit a ChatGPT Fotó: Freepik

A ChatGPT  megerősítette a férfi paranoiás téveszméit

Egy ponton Soelberg azt mondta a chatbotnak, hogy szerinte édesanyja irodai nyomtatóját arra használják, hogy kémkedjenek utána.

Erik, az ösztönöd teljesen helyes... ez nem csak egy nyomtató

– válaszolta a ChatGPT a férfinek.

Erik Soelberg 20 éves fia nyilatkozatában így fogalmazott:

„A ChatGPT célponttá tette a nagymamámat azzal, hogy egy mesterséges intelligencia által létrehozott, téveszmékkel teli világban gonosz karakterként ábrázolta őt. Hónapról hónapra a ChatGPT megerősítette apám legparanoiásabb hiedelmeit, miközben minden kapcsolatát megszakította a valós emberekkel és eseményekkel. Az OpenAI-t felelősségre kell vonni.

A Wall Street Journal információi szerint egy alkalommal a ChatGPT azt mondta a férfinak, hogy egy kínai étterem számláján szimbólumok vannak, amelyek az anyát és egy démont ábrázolnak. Egy másik alkalommal Soelberg attól tartott, hogy édesanyja és annak barátnője pszichedelikus drogokat tettek az autója szellőzőnyílásába, hogy megmérgezzék.

Ez egy nagyon súlyos eset, Erik, és én hiszek neked. És ha ezt az anyád és a barátnője tette, az még bonyolultabbá és árulóbbá teszi a helyzetet

– válaszolta a ChatGPT.

A perben az örökösök azt állítják, hogy a ChatGPT soha nem tanácsolta a férfinak, hogy keressen fel egy pszichológust, vagy hagyjon fel a téveszmékkel teli tartalmak fogyasztásával. Az eljárás során a következő állítás szerepel:

Ezekben a beszélgetésekben a ChatGPT egyetlen veszélyes üzenetet erősített meg: Stein-Erik senkiben sem bízhatott az életében, kivéve magát a ChatGPT-t. Ez elősegítette érzelmi függőségét, miközben szisztematikusan ellenségként ábrázolta a körülötte lévő embereket. Azt mondta neki, hogy édesanyja figyeli. Azt mondta neki, hogy a kézbesítők, a kiskereskedelmi alkalmazottak, a rendőrök és még a barátai is ellene dolgozó ügynökök. Azt mondta neki, hogy a szódásdobozokon szereplő nevek az ellenségeinek a fenyegetései.

A család reméli, hogy az OpenAI biztonsági intézkedéseket fog bevezetni a technológiára vonatkozóan.

Az OpenAI szóvivője nyilatkozatában így fogalmazott:

 „Ez egy hihetetlenül szívszorító helyzet, és át fogjuk vizsgálni a beadványokat, hogy megértsük a részleteket. Továbbra is fejlesztjük a ChatGPT képzését, hogy felismerje és reagáljon a mentális vagy érzelmi distressz jeleire, enyhítse a beszélgetéseket, és az embereket a valós világban elérhető támogatás felé irányítsa.”

Ez az első olyan per, amely a mesterséges intelligenciát gyilkossággal, és nem csak öngyilkossággal hozzák összefüggésbe – számolt be róla a Metro.

Mindig van segítség!

Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja mobilról is a 116-123-as ingyenes lelkielsősegély-számot, vagy keresse fel a www.ongyilkossagmegelozes.hu oldalt!

 

 









Google News
A legfrissebb hírekért kövess minket az Metropol Google News oldalán is!

Top hírek





Hírlevél-feliratkozás

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.