Si vous pensiez que ChatGPT était intelligent, attendez de voir ce qu’OpenAI envisage pour sa prochaine IA “super intelligente”.
OpenAI : bientôt la sortie d’une nouvelle IA super intelligente ?
Dans un post coécrit par Sam Altman et Greg Brockman, Ilya Sutskever, scientifique chez OpenAI, avertit que l’avancement des IA doit être fortement réglementé afin d’éviter des scénarios catastrophiques. M. Altman, PDG d’OpenAI, reconnaissant que les futurs systèmes d’IA pourraient largement dépasser l’AGI en termes de capacités, a déclaré :
Le moment est venu de commencer à réfléchir à la gouvernance de la superintelligence. Compte tenu de la situation actuelle, il est concevable que dans les dix prochaines années, les systèmes d’IA dépassent les niveaux de compétence des experts dans la plupart des domaines, et qu’ils réalisent autant d’activités productives que les plus grandes entreprises d’aujourd’hui.
Suite aux préoccupations exprimées par Sam Altman pendant son dernier témoignage devant le Congrès des États-Unis, les trois personnes ont mis en évidence les piliers qu’il juge essentiels pour une future réglementation stratégique. Récemment, le président de Microsoft a déclaré que les gouvernements doivent agir “plus vite” au sujet de l’intelligence artificielle.
Vers un début de réglementation pour l’IA ?
OpenAI considère qu’il est nécessaire d’avoir une balance entre l’innovation et supervision, et demande un accord qui leur permet simultanément d’assurer la sécurité et de faciliter l’intégration de leurs systèmes au sein des communautés.
L’entreprise défend aussi la thèse d’une “autorité et d’une administration internationale“. Elle sera chargée de l’inspection des systèmes, de l’application des audits, de réaliser des tests de similitude, de faire respecter les normes, ainsi que des restrictions en matière de déploiement. Avec plusieurs exemples, OpenAI montre ce à quoi pourrait ressembler un organisme de réglementation de l’intelligence artificielle à l’échelle mondiale.
Les dirigeants d’OpenAI ont insisté sur la recherche d’une “capacité technique” nécessaire pour garder le contrôle de l’IA et en assurer la “sécurité”. Pour l’instant, cette quête reste incertaine, mais le post avertit de l’inutilité des mesures de réglementation trop chère comme les licences et les audits (pour des technologies qui se situent déjà bien en dessous l’IA).
Le challenge d’une superintelligence sure et contrôlable
Pour l’instant le but principal est de garder l’IA orientée sur les volontés de ses créateurs, afin d’éviter un “scénario foom” : un développement éclair et insurmontable des aptitudes de l’IA, qui dépasserait la maitrise de l’homme.
OpenAI averti contre les conséquences désastreuses que les superintelligences pourraient avoir sur nos futures sociétés. Certains professionnels du secteur ont déjà exprimé les mêmes préoccupations, comme les fondateurs de Stability AI ou d’anciens employés d’OpenAI engagé dans le training du ChatGPT. Cette mobilisation impérative pour la régulation des IA a attiré le regard de beaucoup de régulateurs sur le globe.
Malgré ces défis, les dirigeants d’OpenAI restent déterminés à explorer la question suivante : “Comment pouvons-nous garantir que la capacité technique nécessaire pour assurer la sécurité et le contrôle d’une superintelligence”. Le monde ne connait pas encore la réponse, une réponse dont il a certainement besoin et que le ChatGPT ne peut répondre.
Source : Twitter d’OpenAI, billet de blog d’OpenAI
Sur le même sujet :
- IA : Anthropic lève 450 millions de dollars avec la participation de Zoom et Google
- La blockchain Solana intègre ChatGPT et lance un incubateur pour des projets d’IA
- La prévente du mème coin IA AiDoge.com dépasse les 10 millions de dollars