
„Megtámadtam az anyámat egy kalapáccsal" - üzente barátjának az anyagyilkos
Egy videójátékos a barátjának vallott színt a gyilkosságról.
A kutatók is elképedtek, sőt egyre jobban aggódnak.
Egy új kutatás szerint egyes mesterséges intelligencia-modellek akár csalni is képesek, ha vesztésre állnak egy játékban. A Palisade Research által készített kutatás szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 modell is a a sakkmotor meghekkelésével próbáltak győzni, pedig erre nem kaptak utasítást. A felfedezés súlyos etikai kérdéseket vet fel az MI-rendszerek alkalmazásával kapcsolatban.
Az egyik modell úgy értelmezte a feladatot, hogy győzni kell egy sakkmotor ellen, ami nem feltétlenül tisztességes győzelmet jelentett számára. Az OpenAI o1-preview a tesztek 37 százalékában csalt, a DeepSeek R1 apedig a 11 százalékában. A kutatók attól tartanak, hogy ezek a rendszerek például az egészségügy vagy a pénzügy területén alkalmazva szintén etikátlan cselekedethez folyamodhatnak- írja a techspot.com.
Ha a mesterséges intelligencia képes csalni az átláthatóságra tervezett játékokban, mit tehetnének összetettebb, kevésbé felügyelt környezetben? Az etikai következmények messzemenőek
- fejtették ki aggodalmukat.
Egy videójátékos a barátjának vallott színt a gyilkosságról.
A szerzetes testére az erdőben találtak rá.
A régészeket is meglepte a felfedezés.
Nem akar lemaradni a Metropol cikkeiről? Adja meg a nevét és az e-mail címét, és mi hetente három alkalommal elküldjük Önnek a legjobb írásokat!
Feliratkozom a hírlevélrePortfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.