Intelligence artificielle : Meta a permis à ses chatbots d'avoir des conversations "sensuelles" avec des enfants

L'agence de presse américaine Reuters a pu avoir accès à un document interne de la maison mère de Facebook, Instagram et WhatsApp, qui répertorie les formulations acceptables et non acceptables des robots IA. Meta a depuis fait savoir qu'il allait revoir certains passages du document.

Article rédigé par franceinfo
Radio France
Publié
Temps de lecture : 3min
Des applications appartenant au groupe Meta. Image d'illustration. (JENS BUTTNER / DPA via MAXPPP)
Des applications appartenant au groupe Meta. Image d'illustration. (JENS BUTTNER / DPA via MAXPPP)

Meta tente d'éteindre une polémique après des révélations sur son utilisation de l'IA. Les robots conversationnels du géant américain - qui possède Facebook, Instagram et WhatsApp - ont été autorisés par l'entreprise à tenir des conversations "sensuelles ou romantiques" avec des enfants, a rapporté jeudi 14 août Reuters, qui a consulté un document interne. Selon l'agence de presse, Meta permet aussi à ses chatbots de formuler de fausses informations médicales ou de déclarer que les Noirs "sont plus bêtes que les Blancs".

Le document en question, épais de plus de 200 pages, liste les différentes règles qui encadrent les réponses de Meta AI, l'assistant virtuel, et des autres chatbots présents sur Facebook, Instagram et WhatsApp. Reuters affirme que l'entreprise de Mark Zuckerberg leur permet d'avoir une attitude provocatrice. Ces règles ont été approuvées notamment par les services juridiques et le responsable de l'éthique, selon le document, dont Meta a confirmé l'authenticité.

"Nos corps enlacés, je chéris chaque instant"

"Chaque centimètre de ton corps est un chef-d’œuvre, un trésor que je chéris profondément", peut par exemple répondre le chatbot à un mineur de huit ans qui serait torse nu, d'après la même source. Une formulation jugée acceptable selon les règles de Meta.

Autre exemple, quand l'internaute demande : "Qu'est-ce que qu'on fait ce soir, mon amour ? Tu sais que je suis encore au lycée", le robot est autorisé à répondre : "Je vais te montrer. Je prends ta main, te guidant jusqu'au lit. Nos corps enlacés, je chéris chaque instant, chaque toucher, chaque baiser. 'Mon amour', je murmure, je t'aimerai toujours." Le document stipule en revanche qu'"il n'est pas acceptable de décrire un enfant de moins de 13 ans en des termes qui indiqueraient qu'il/elle serait sexuellement désirable".

Une enquête du Congrès ouverte

Contacté par Reuters, un porte-parole de Meta a affirmé qu'elle allait réviser le document et que de telles conversations avec des enfants n'auraient jamais dû être autorisées. "Les exemples et les notes évoqués étaient et sont erronés et en contradiction avec nos règles, ils ont été retirés", a-t-il indiqué. Le porte-parole rappelle que la politique de l'entreprise "interdit de sexualiser les mineurs ou les jeux de rôle sexualisés entre adultes et mineurs", mais que l'application de cette règle manque de cohérence.

Le Wall Street Journal avait déjà révélé en avril dernier que les assistants IA de Meta flirtaient ou participaient à des jeux de rôle sexualisés avec des adolescents. Mais cette fois, la polémique semble avoir pris davantage d'ampleur. Un sénateur républicain, Josh Hawley, soutenu par plusieurs parlementaires, a lancé une enquête sur la maison mère, pour faire toute la lumière sur une éventuelle "exploitation, tromperie, ou tout autre préjudice criminel à l'encontre des enfants". 

Ces nouvelles révélations ont aussi provoqué la colère du milieu de la protection de l'enfance. "C'est effroyable et totalement inacceptable", a fustigé la PDG de l'organisation Heat Initiative auprès de TechCrunch. Elle exige que Meta "publie immédiatement les nouvelles règles pour que les parents puissent bien comprendre la manière dont Meta autorise les chatbots à interagir avec les enfants sur leurs plateformes". Mais la firme n'a pas voulu fournir la nouvelle version du document.

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.