
"Kedden mentünk volna báli ruháért" - Anyukája talált rá az elhunyt diáklányra
Az anya csak néhány óráig nem tartózkodott az otthonukban.
A kutatók is elképedtek, sőt egyre jobban aggódnak.
Egy új kutatás szerint egyes mesterséges intelligencia-modellek akár csalni is képesek, ha vesztésre állnak egy játékban. A Palisade Research által készített kutatás szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 modell is a a sakkmotor meghekkelésével próbáltak győzni, pedig erre nem kaptak utasítást. A felfedezés súlyos etikai kérdéseket vet fel az MI-rendszerek alkalmazásával kapcsolatban.
Az egyik modell úgy értelmezte a feladatot, hogy győzni kell egy sakkmotor ellen, ami nem feltétlenül tisztességes győzelmet jelentett számára. Az OpenAI o1-preview a tesztek 37 százalékában csalt, a DeepSeek R1 apedig a 11 százalékában. A kutatók attól tartanak, hogy ezek a rendszerek például az egészségügy vagy a pénzügy területén alkalmazva szintén etikátlan cselekedethez folyamodhatnak- írja a techspot.com.
Ha a mesterséges intelligencia képes csalni az átláthatóságra tervezett játékokban, mit tehetnének összetettebb, kevésbé felügyelt környezetben? Az etikai következmények messzemenőek
- fejtették ki aggodalmukat.
Az anya csak néhány óráig nem tartózkodott az otthonukban.
Napról napra változik az aszteroida becsapódásának esélye.
A tudósok régóta vizsgálják a megmagyarázhatatlan lényeket.
Nem akar lemaradni a Metropol cikkeiről? Adja meg a nevét és az e-mail címét, és mi hetente három alkalommal elküldjük Önnek a legjobb írásokat!
Feliratkozom a hírlevélre