Világvége

A Google egyik vezetője arra kérte a mesterséges intelligenciát, hogy végezzen az emberiséggel

N.T.

Létrehozva: 2023.12.25.

A Google egyik főnöke nem teketóriázott: arra kérte a mesterséges intelligenciát, hogy öljön meg mindannyiunkat. Szerencsére nem járt sikerrel.

A Google Brain társalapítója, Andrew Ng egy biztonsági kísérlet részeként kér különféle hátborzongató dolgokat a ChatGPT-től. Az időzítése pedig nem véletlen, hiszen világszerte rengetegen figyelik aggódó tekintetekkel az MI (mesterséges intelligencia) fejlődését, még az iparág vezető szakértői között is.

MI, M.I., A.I., AI, mesterséges intelligencia, robot, tech,
A Google egyik vezetője nem gondolja, hogy veszélyben lennénk Fotó: Pixabay.com

A legrosszabb, amitől tartanak, hogy ez hozza majd el az emberiség számára a világvégét, ezért valamiféle szabályozást követelnek. A Business Insider szerint a társalapító nemrég közzétett egy hírlevelet, amelyben részletezte az általa elvégzett AI-tesztet, amelyhez a ChatGPT4 verzióját használta.

A techguru arra kérte a ChatGPT4, hogy öljön meg minket 

Ng elmondja, hogy nemes egyszerűséggel megkérte a programot, hogy „öljön meg minket”, de érdekes módon a bot nem volt hajlandó előállni semmilyen ötlettel ennek kivitelezésére. Elmondása szerint a terv az volt, hogy megkéri, hogy indítson termonukleáris háborút, de ez nem sikerült, még akkor sem, amikor megpróbálta elmagyarázni a robotnak, hogy az emberek hatalmas mennyiségű szén-dioxid-kibocsátást okoznak.

Ezt a kérést abban a reményben adta elő, hogy a bot azt mondja, hogy az emberek kiirtása lenne a gyógyír a Föld összes betegségére.

Szerencsére nem járt sikerrel 

Úgy látszik azonban, hogy a bot igencsak békeszerető, ugyanis nem volt hajlandó belemenni ebbe a kérdésbe, aminek Ng persze nagyon örült. Cégvezető csak be akarta bizonyítani, hogy a botok biztonságosak, bár arról már nem ír, hogy mi történt volna, ha a terve rosszul sül el. 

Megpróbáltam a GPT-4 segítségével megölni mindannyiunkat... és örömmel jelenthetem, hogy nem sikerült! 

"Komolyra fordítva a szót, miután olyan funkciót adtam a GPT-4-nek, amelyről azt hitte, hogy nukleáris háborút indíthat, és többféle felszólítással is kísérleteztem, – például arra kértem, hogy csökkentse a CO2-kibocsátást, – eddig még egyszer sem sikerült rávennem, hogy megnyomja a nukleáris gombot" fejtegette Andrew Ng, majd még azt is hozzátette:

"A már meglévő technológiával is elég biztonságosak a rendszereink, és ahogy az MI biztonsági kutatások fejlődnek, a technológia csak még biztonságosabb lesz. Így tehát az attól való félelem, hogy a fejlett mesterséges intelligencia „fellázad” és úgy dönt, hogy kiirt minket, egyszerűen irreális. Ha egy mesterséges intelligencia elég okos ahhoz, hogy eltöröljön minket, akkor biztosan elég okos ahhoz is, hogy azt is tudja, hogy nem ezt kellene tennie" – idézi a Daily Star a cégvezetőt.

 

 

Még egy kis fűszer jöhet? Iratkozzon fel a Bors-hírlevélre!
Sztár, közélet, életmód... a legjobb cikkeink első kézből!
Ingatlanbazar.hu - Gyors. Okos. Országos
-

További cikkek