Les scientifiques d’Oxford mettent en garde contre le fait que l’IA pourrait être plus meurtrière que les armes nucléaires.

IA

Dans les mauvaises mains, l’IA “surhumaine” pourrait “tuer tout le monde”.

Les chercheurs de l’Université d’Oxford ont mis en garde les législateurs britanniques que l‘IA “surhumaine” pourrait être au moins aussi dangereuse que les armes nucléaires et devrait donc être réglementée comme elles, selon The Telegraph.
Les experts ont informé les députés de la commission britannique de la science et de la technologie des dangers des technologies d’IA non réglementées – et ils n’ont pas vraiment tourné autour du pot.
“Avec l’IA surhumaine, il y a un risque particulier qui est d’une autre sorte de classe, c’est-à-dire qu’elle pourrait tuer tout le monde”, a déclaré l’étudiant en doctorat Michael Cohen aux députés, selon The Telegraph.

IA Apocalypse

Ces risques sont en effet pressants, les puissances politiques s’efforçant de plus en plus de se surpasser dans le domaine de l’IA.

Michael Osborne, professeur d’apprentissage automatique à l’Université d’Oxford qui a également participé à la réunion de la commission, a mis en garde contre une “course massive aux armements en IA” entre les États-Unis et la Chine, qui sont disposés “à jeter la sécurité et la prudence par la fenêtre et à courir aussi vite que possible vers l’IA la plus avancée.”

“Il y a des raisons d’espérer que nous avons été assez bons pour réglementer l’utilisation des armes nucléaires”, a déclaré Osborne. “Si nous avions la possibilité de comprendre que l’IA avancée est un danger comparable aux armes nucléaires, alors peut-être pourrions-nous arriver à des cadres similaires pour la gouverner.”

Entraîner les IA pour atteindre un jalon ou récolter une récompense pourrait être particulièrement dangereux, a déclaré Cohen.

“Si vous imaginez entraîner un chien avec des friandises, il apprendra à choisir des actions qui lui permettront d’obtenir des friandises”, a déclaré Cohen aux législateurs, “mais si le chien trouve le placard à friandises, il peut obtenir les friandises lui-même sans faire ce que nous voulions qu’il fasse.”

En d’autres termes, une IA surhumaine court le risque de diriger “autant d’énergie que possible pour sécuriser sa prise” sur une récompense, ce qui “nous laisserait sans aucune énergie pour nous-mêmes.”

À mesure que ces technologies progressent, nous devons avoir la capacité de “couper le courant” si elles deviennent “beaucoup plus intelligentes que nous dans tous les domaines“, a argumenté Cohen.
Et nous ne faisons qu’effleurer la surface. Cohen et Osborne ont prédit qu’il pourrait émerger des IA plus capables que les humains dès la fin du siècle, ce qui pourrait être évité avec la bonne réglementation.

Source : https://futurism.com/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut
%d blogueurs aiment cette page :