à la uneCameroun

« Another Body »: le combat de jeunes femmes victimes de deepfakes


Les députés européens ont adopté mercredi des règles pour encadrer les systèmes d’intelligence artificielle (IA) comme ChatGPT, une législation unique au niveau mondial. Les milieux de la tech craignent que le texte ne freine l’innovation.

Le commissaire européen chargé du dossier, Thierry Breton, s’est félicité sur X du « soutien massif » du Parlement (523 voix pour, 46 voix contre) à ce texte qui établit les « premières règles contraignantes et complètes au monde pour une IA fiable ».

Ce projet de loi avait été présenté par la Commission européenne en avril 2021. L’apparition fin 2022 de ChatGPT de la start-up californienne OpenAI, capable de rédiger des dissertations, poèmes ou traductions en quelques secondes, lui a donné une nouvelle dimension.

Ce système a révélé l’énorme potentiel de l’IA mais aussi ses risques. La diffusion de fausses photos ou vidéos, plus vraies que nature, a ainsi alerté sur le danger de manipulation de l’opinion.

« Aujourd’hui est un jour historique sur notre long chemin vers la réglementation de l’IA », a déclaré le co-rapporteur du texte Brando Benifei (sociaux-démocrates) devant la presse mercredi matin.

Transparence et droits d’auteur

Avec ce texte, « nous avons réussi à trouver un équilibre très fin entre l’intérêt d’innover et l’intérêt de protéger », a ajouté le co-rapporteur Dragos Tudorache (Renew, centristes et libéraux).

Toutefois, cette législation « n’est que le commencement », a-t-il relevé, soulignant que l’intelligence artificielle continue d’évoluer rapidement. « Nous devrons être très attentifs à cette évolution de la technologie à l’avenir et être prêts à répondre aux nouveaux défis qui pourraient en découler », a prévenu M. Tudorache.

La législation prévoit une approche à deux niveaux. Les modèles d’IA à « usage général » devront respecter des obligations de transparence ainsi que les règles européennes en matière de droit d’auteur.

Quant aux systèmes considérés comme à « haut risque » – utilisés par exemple dans les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre -, ils seront soumis à des exigences plus strictes. Ils devront par exemple prévoir la mise en place d’une analyse d’impact obligatoire sur les droits fondamentaux.

Les images, textes ou vidéos générés artificiellement (deep fakes) devront être clairement identifiés comme tels.

Le texte interdit aussi…

[…]Lire la suite



Source link

Please follow and like us:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

RSS
Follow by Email
YouTube
Pinterest
LinkedIn
Share
WhatsApp