Expertii think tank-ului american RAND Corporation au incercat sa gaseasca un raspuns la un scenariu apocaliptic.Cum poate influenta inteligenta artificiala riscul unui conflict international nuclear?

Cercetatorii RAND au organizat o serie de workshop-uri la care au luat parte experti in securitate nucleara si in domeniul inteligentei artificiale.

Atelierele au vizat modul in care programele de inteligenta artificiala ar putea influenta pana in 2040 securitatea nucleara la nivel mondial.

Frica principala a cercetatorilor? Aceea ca inserarea unor programe de inteligenta in infrastructura balistica ar putea, in cazul unei defectiuni sau al unei „actiuni cu premeditare”, sa provoace un razboi nuclear la scara internationala.

Chiar daca in perioada Razboiului Rece astfel de scenarii erau considerate „decoruri” de imaginatie science fiction, „pericolul ar putea fi, in curand, mai mult stiinta, decat fictiune”, se arata intr-un raport al RAND Corporation.

„Progresele uluitoare in domeniul inteligentei artificiale au creat masinarii care pot invata si gandi, provocand o noua cursa a armelor printre cele mai importante puteri nucleare ale lumii. Nu este vorba despre robotii ucigasi dintr-un blockbuster de Hollywood, ci despre cum computerele ar putea incalca regulile de baza ale descurajarii nucleare si despre cum ar putea manipula oamenii sa ia decizii devastatoare”, scrie in preambulul documentului.

Expertii avertizeaza ca o anumita logica „paranoica” caracteristica anilor Razboiului Rece nu a disparut din relatiile internationale pe segment militar. in sensul ca, pe masura ce tehnologia nucleara avanseaza, tarile care detin arsenale de focoase isi vor suspecta constant inamicii ca sunt cu un pas inaintea lor. Acest lucru ar putea declansa un cerc vicios in care toate puterile nucleare se inarmeaza „pana la absurd”, cautand sa fie mereu pregatite de un conflict de o asemenea factura.

„Sistemele autonome nu au nevoie sa ucida oameni pentru a submina stabilitatea sau pentru a declansa un razboi catastrofal”, atrage atentia Edward Geist, cercetator al RAND Corporation.

„A gresi este uman, la urma urmei. Dar o masinarie nu face greseli, nu simte presiunea unei constiinte si nu are prejudecati”, se mai arata in raportul RAND.

Anul trecut, Elon Musk avertiza ca ambitiile marilor puteri de a domina zona inteligentei artificiale ar putea cauza un nou razboi mondial.

Musk declara ca, daca va fi nevoie, statele autoritate pot obtine cu forta sistemele de inteligenta artificala dezvoltate de companiile private, fara ca macar sa deruleze propriile cercetari in acest domeniu.

in luna august 2017, 115 alte personalitati ale industriei roboticii si inteligentei artificiale au cerut Natiunilor Unite, prin intermediul unei scrisori, sa ia masuri ferme impotriva pericolului armelor autonome.

„Armele autonome letale risca sa devina a treia revolutie in razboi. Odata dezvoltate, conflictele armate vor avea loc la o scara fara precedent si mai repede decat pot intelege oamenii”, avertiza scrisoarea.

Pot fi arme ale terorii, arme care terorieaza si arme care pot fi folosite de teroristi impotriva oamenilor nevinovati, care pot fi piratate pentru a fi folosite intr-un mod nedorit, se mai mentiona in scrisoare.

Loading...

Sursa: Digi24

LĂSAȚI UN MESAJ

Please enter your name here
Please enter your comment!