La création d’une intelligence artificielle facilite la circulation d’informations susceptibles d’être utilisées par des pédophiles
L’amélioration de la technologie permet aux prédateurs de manipuler et de diffuser plus facilement des contenus en ligne, a déclaré la commissaire australienne à l’eSafety (sécurité en ligne), à une commission parlementaire chargée d’enquêter sur les dangers associés à la technologie de l’intelligence artificielle (IA) générative.
Cette déclaration fait suite à la publication par la commissaire d’un rapport intitulé « Trends Position Statement Generative AI » (Tendances de prise de position de l’IA générative) (pdf), qui souligne que les contenus générés par l’IA peuvent potentiellement influencer les perceptions et les valeurs du public, y compris les idéologies extrémistes.
« Nous examinons le risque d’actes d’IA générative qui pourraient potentiellement conduire à la création de contenus de classe 1, tels que des contenus relatifs à des abus sexuels sur des enfants ou des contenus pro-terroristes », a expliqué Morag Bond lors d’une audition le 23 août.
« C’est une question très importante pour nous. »
L’IA générative capte l’imagination
L’IA générative peut produire du contenu en puisant dans d’énormes ensembles de données inspirés par la structure du cerveau humain – elle peut imiter, générer des textes, composer de la musique et écrire des histoires, mais ce n’est que la partie émergée de l’iceberg.
Le rapport souligne que les chatbots et les modèles multimodaux ont le potentiel de générer des contenus hautement personnalisés, émotionnels et invasifs qui peuvent sembler faire autorité et qui, intentionnellement ou par accident, peuvent être préjudiciables.
Le rapport donne un exemple de la façon dont une jeune de 13 ans a été conseillée par le chatbot IA de Snapchat sur la façon dont elle pourrait mentir à ses parents pour rencontrer un homme de 31 ans.
Il peut également être utilisé à d’autres fins, par exemple pour générer des photos et des vidéos et utiliser le contenu pour faire chanter ou menacer des individus. Le rapport renvoie à une annonce publique du FBI (Federal Bureau of Investigation) qui, depuis avril, a constaté une augmentation du nombre de victimes de « sextorsion » signalant l’utilisation de fausses images ou vidéos créées à partir de contenus publiés sur leurs sites de médias sociaux, de messages sur le web ou capturés lors de chats vidéo.
La sophistication de la technologie crée des possibilités infinies
L’IA peut également imiter des conversations, ce qui favorise le développement de la fraude et à d’autres formes de cybercriminalité. Les délinquants ont la capacité de produire des images graphiques réalistes générées par l’IA, ce qui rend l’authentification presque impossible, et cela pourrait avoir un impact sur la manière dont le crimes peut être résolu.
Pour atténuer les dommages et les risques, il est important de déterminer qui est responsable, indique le rapport.
Il appelle l’industrie en ligne à jouer un rôle de premier plan en adoptant une approche de la sécurité dès la conception, fondée sur trois principes : responsabilité du fournisseur de services, responsabilisation et autonomie de l’utilisateur, transparence et obligation de rendre compte.
Tout n’est pas catastrophique. L’IA générative peut être rentable et est utilisée pour automatiser des tâches répétitives et fastidieuses. Elle peut contribuer à améliorer les services d’assistance en ligne en permettant de diriger les questions de service à la clientèle vers la bonne personne. C’est également un outil utile de suivi et de modération, ce qui s’avère utile pour certaines entreprises.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion