International

Comment se prépare-t-elle aux risques de l’IA ? » – Cameroon Magazine


OpenAI, l’entreprise derrière ChatGPT, s’inquiète des risques liés au développement de l’intelligence artificielle (IA) et annonce la création d’une équipe dédiée à l’atténuation des risques. Cette équipe, nommée « Preparedness team », sera chargée de surveiller, évaluer, prédire et se protéger contre les risques associés à l’IA et à son évolution future.

Sam Altman, fondateur d’OpenAI, explique que ces préoccupations sont partagées par d’autres acteurs de la technologie, qui comparent les dangers potentiels de l’IA à ceux d’une pandémie ou d’une guerre nucléaire. OpenAI reconnaît les avantages potentiels des avancées en IA, mais souligne également les risques croissants associés à ces avancées.

L’annonce d’OpenAI met principalement l’accent sur les systèmes d’IA à haute capacité, également appelés « Intelligence Artificielle Générale » (AGI). Ces systèmes hypothétiques seraient capables d’effectuer presque toutes les tâches cognitives humaines et soulèvent des questions quant à leurs risques potentiels.

OpenAI reconnaît que plusieurs entreprises, y compris OpenAI elle-même, ont pour objectif de développer de tels systèmes, mais souligne la nécessité de se préparer aux dérives possibles. La société évoque également une forme avancée d’IA, déjà existante, capable de prendre en compte son environnement extérieur grâce à des caméras et des capteurs, ce qui soulève des préoccupations supplémentaires.

La « Preparedness team » sera dirigée par Aleksander Madry, informaticien et ancien directeur du Center for Deployable Machine Learning du MIT. L’équipe devra aborder les problématiques liées à la dangerosité des systèmes d’IA avancés, la mise en place d’un cadre de surveillance et de protection, ainsi que les risques potentiels liés à la détention et à l’exploitation malveillante des modèles d’IA avancés.

OpenAI mentionne également divers « risques catastrophiques » classés en quatre catégories distinctes : la persuasion individualisée, la cybersécurité, la réplication autonome et les risques NRBC (nucléaire, radiologique, biologique et chimique).

Axel Legay, professeur à l’UCLouvain et spécialiste en cybersécurité, souligne également les risques associés à la délégation de la prise de décision à l’IA dans des domaines sensibles tels que la gestion d’un site nucléaire ou les armes autonomes.

Pour faire face à ces défis, des pistes de solutions sont évoquées, notamment le développement de l’IA au sein de l’Union européenne pour mieux la réguler, la fin de l’anonymat sur Internet et l’éducation des citoyens sur l’utilisation de l’information et de l’IA.

En parallèle, OpenAI lance un défi ouvert au public, invitant les participants à proposer des idées pour résoudre les problématiques et les risques potentiels liés à l’IA. Les lauréats pourront remporter jusqu’à 25 000 dollars en crédit API et pourraient même se voir proposer un emploi au sein de l’équipe « Preparedness ».



Source link

Please follow and like us:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

RSS
Follow by Email
YouTube
Pinterest
LinkedIn
Share
WhatsApp