Naučnici: Nisu opasni roboti, već ljudi

Objavljeno: 18. 6. 2018 u 16:36h

Vještačka inteligencija nema samosvjest i nije opasna po ljude, ističu naučnici, ali upozoravaju da bi čovjek mogao da zloupotrijebi robote i mašine i okrene ih protiv drugih bića.

Ilon Mask, direktor kompanije “Tesla”, upozoravao je više puta da bi vještačka inteligencija mogla da potisne ljude, pa čak i istrijebi.

Fizičar Stiven Hoking, koji je preminuo u martu, takođe je izražavao zabrinutost i tvrdio da bi razvoj pune vještačke inteligencije mogao da znači kraj čovječanstva.

Kilijan Vajnberger, profesor informatike na Univerzitetu “Kornel”, ističe da čovječanstvo plaši mogućnost da vještačka inteligencija postane samosvjesna i počne ljude da tretira kao niža bića.

Ali, strahovi da će vještačka inteligencija razviti samosvijest i svrgnuti čovječanstvo nemaju osnovu.

Naime, vještačka inteligencija je sposobna za impresivna dostignuća unutar strogo definisanih granica, poput igranja šaha ili brzog identifikovanja predmeta, ali tu njene sposobnosti prestaju.

“Ona ne postiže samosvijest – na tom području istraživanja nije bilo apsolutno nikakvog napretka niti će ga biti u bliskoj budućnosti”, naglašava Vajnberger.

Druga zabrinjavajuća mogućnost jeste da bi beskrupulozni ljudi mogli koristiti vještačku inteligenciju u loše svrhe, što je više vjerovatno, navode naučnici.

Svaki oblik mašine ili alata može biti zloupotrijebljen.

Mogućnost opremanja oružja vještačkom inteligencijom je zastrašujuća i riječ je o nečemu što bi trebalo biti pod strogom kontrolom država, navode naučni portali.

Izvor: Agencije

Facebook Twitter Preporuči na Viberu
Kopirati

Nema komentara

Sakrij sve komentare

Prikaži komentare

NAPOMENA: Komentari odražavaju stavove njihovih autora, a ne nužno i stavove internet portala Banjaluka.com. Molimo korisnike da se suzdrže od vrijeđanja, psovanja i vulgarnog izražavanja. Portal Banjaluka.com zadržava pravo da obriše komentar bez najave i objašnjenja. Zbog velikog broja komentara Banjaluka.com nije dužan obrisati sve komentare koji krše pravila. Kao čitalac takođe prihvatate mogućnost da među komentarima mogu biti pronađeni sadržaji koji mogu biti u suprotnosti sa vašim vjerskim, moralnim i drugim načelima i uvjerenjima.

Šta mislite o ovoj temi?

Vaša e-mail adresa neće biti objavljena. Sva polja su obavezna!

Promo

Copyright. Sva prava zadržana. Dozvoljeno preuzimanje sadržaja isključivo uz navođenje linka prema stranici sa koje je sadržaj preuzet.

/magazin/nauka-i-tehnologija/naucnici-nisu-opasni-roboti-vec-ljudi/||claudebot