
"Álljanak el innen, mert nagyon gáz a látvány" - közölték az éppen segítséget nyújtó mentősökkel
A történetet az Országos Mentőszolgálat osztotta meg közösségi média felületükön.
A kutatók is elképedtek, sőt egyre jobban aggódnak.
Egy új kutatás szerint egyes mesterséges intelligencia-modellek akár csalni is képesek, ha vesztésre állnak egy játékban. A Palisade Research által készített kutatás szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 modell is a a sakkmotor meghekkelésével próbáltak győzni, pedig erre nem kaptak utasítást. A felfedezés súlyos etikai kérdéseket vet fel az MI-rendszerek alkalmazásával kapcsolatban.
Az egyik modell úgy értelmezte a feladatot, hogy győzni kell egy sakkmotor ellen, ami nem feltétlenül tisztességes győzelmet jelentett számára. Az OpenAI o1-preview a tesztek 37 százalékában csalt, a DeepSeek R1 apedig a 11 százalékában. A kutatók attól tartanak, hogy ezek a rendszerek például az egészségügy vagy a pénzügy területén alkalmazva szintén etikátlan cselekedethez folyamodhatnak- írja a techspot.com.
Ha a mesterséges intelligencia képes csalni az átláthatóságra tervezett játékokban, mit tehetnének összetettebb, kevésbé felügyelt környezetben? Az etikai következmények messzemenőek
- fejtették ki aggodalmukat.
A történetet az Országos Mentőszolgálat osztotta meg közösségi média felületükön.
Kiderült, miért kezdett ámokfutásba az autós!
Új, veszélyes hackelési technikát fejlesztettek ki a kiberbűnözők.
Nem akar lemaradni a Metropol cikkeiről? Adja meg a nevét és az e-mail címét, és mi hetente három alkalommal elküldjük Önnek a legjobb írásokat!
Feliratkozom a hírlevélre