
Geoffrey Hinton est un des grands noms de l’intelligence artificielle, souvent surnommé le parrain de l’IA. Ce dernier vient tout juste de démissionner de Google où il travaillait depuis plus de 10 ans afin de pouvoir mettre en garde contre les potentiels dangers de cette nouvelle technologie.
Geoffrey Hinton quitte Google
Avant de quitter Google, Geoffrey Hinton a travaillé pendant de nombreuses années sur des algorithmes de machine learning au sein de l’entreprise. Il a notamment reçu son surnom de “parrain de l’intelligence artificielle” pour ses travaux sur les réseaux neuronaux, un des principes de base du machine learning.
Ainsi, il a pris la parole sur Twitter le 1er mai pour expliquer qu’il a quitté Google non pas pour un quelconque conflit interne, mais pour pouvoir parler plus librement de l’intelligence artificielle et des dangers potentiels que peuvent représenter cette technologie qui fait de plus en plus de bruit.
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
Le premier problème actuel selon Hinton, ce n’est pas le fait que la machine pourrait éliminer l’homme comme on a pu très souvent le voir à travers de nombreux films de science-fiction. En revanche, un problème plus terre à terre se pose déjà avec la capacité de cette technologie à inonder internet de données qui ne représentent pas la réalité.
En effet, les fake news sont un problème en constante augmentation, or avec l’IA il est encore plus facile d’en produire que cela soit sous la forme de textes, mais aussi d’images ou encore de vidéos.
We respond to A LOT of stupid inquiries here, but this is really special. Thank you to @FortuneMagazine for actually digging into this. Would love for someone to figure out who is behind this.
More details in 🧵 https://t.co/kDbAEjgkkV
— Patrick Hillmann 🤷🏻♂️👉 (@PRHillmann) May 1, 2023
Par exemple, récemment Binance a dû informer ses utilisateurs qu’ils avaient été victimes de ChatGPT qui indiquait à tout le monde que leur CEO, Changpeng Zhao était membre du parti communiste chinois ce qui n’est pas le cas.
Le chatbot citait même des sources pour appuyer ses informations sauf que ceux-ci n’existent pas ou bien ne concernant pas Changpeng Zhao.
Les autres dangers de l’IA selon Hinton
Outre ce problème majeur de la création de données et d’informations fausses, pour Hinton l’autre problème majeur de l’intelligence artificielle, c’est que celle-ci a la capacité de remplacer de nombreux métiers et donc de laisser sans travail de nombreux individus.
Finalement, Hinton pense qu’à l’avenir l’IA pourrait être une menace pour l’humanité pour sa facilité à analyser et à apprendre sur des quantités de données astronomiques. De même, il ne voit pas d’un bon œil l’escalade de nombreux gouvernements à développer cette technologie pour en faire usage sur des systèmes d’armements mortels autonomes (LAWS).
Enfin, il a quelques regrets concernant son travail, mais s’explique de la manière suivante :
Je me console avec l’excuse la plus humaine et logique qu’il soit : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait.
Les autorités de régulation sur le qui-vive
Tout comme pour les crypto-monnaies, des autorités de régulation existent pour cerner les problèmes de l’IA et éviter que ceux-ci ne partent à la dérive.
Comme on a pu notamment le voir récemment en Italie où ChatGPT s’est retrouvé interdit pendant quelques semaines. Ainsi, en mars dernier, plus de 2600 exécutifs et chercheurs du monde des sciences et de la technologie dont aussi Elon Musk ont signé une lettre ouverte demandant d’arrêter temporairement le développement de l’intelligence artificielle citant “des risques importants pour la société et l’humanité”.
De la même façon, un groupe de 12 législateurs européens ont signé une lettre ouverte en avril et aussi un récent projet de loi européenne classe les IA en fonction de leur niveau de risques.
Le Royaume-Uni a aussi ajouté 125 millions de dollars pour supporter son groupe proposant le développement d’une “IA sécurisée”.
Source : Cointelegraph
Sur le même sujet :
- Les employés de Samsung sont interdits d’utiliser des outils d’IA tels que ChatGPT
- Nous avons demandé à ChatGPT de prédire le prix du Bitcoin, ces 5 autres cryptos pourraient également exploser
- Binance intègre ChatGPT sur “Academy” pour accompagner ses utilisateurs