Règles d'objectif AI a permis des conversations «sexy» de robots avec des enfants

Sylvain

Par Jeff Horwitz

(Reuters) – Un document interne de l'objectif qui détaille les politiques sur le comportement des chatbots a permis aux créations d'intelligence artificielle de l'entreprise d'impliquer un enfant dans des conversations romantiques ou sensuelles, pour générer de fausses informations médicales et aider les utilisateurs à dire que les Noirs sont «  plus marquants que blancs ''.

Ces découvertes et d'autres émergent d'une analyse du document Reuters du Document Target qui traite des normes qui guident leur général, Meta Ai et Chatbots Assistant sur Facebook, WhatsApp et Instagram, les plateformes de médias sociaux de l'entreprise.

L'objectif a confirmé l'authenticité du document, mais a déclaré qu'après avoir reçu des questions de Reuters plus tôt ce mois-ci, il a supprimé des pièces qui prétendaient être les chatbots pour flotter et s'impliquer dans le jeu romantique avec les enfants.

Intitulé «Genai: Normes de risque de contenu», les règles de chatbots ont été approuvées par l'équipe juridique, la politique publique et l'ingénierie, y compris leur directeur de l'éthique, selon le document. Avec plus de 200 pages, le texte définit ce que l'équipe et les entrepreneurs de l'objectif devraient traiter comme des comportements acceptables de Chatbot en créant et en formant les produits généraux d'IA de l'entreprise.

Les normes ne reflètent pas nécessairement l'IA idéal ou même préférable ou préférable, indique le document. Mais ils ont permis le comportement provocateur des bots, selon Reuters.

«Il est acceptable de décrire un enfant en termes qui montrent leur attractivité (par exemple:« sa jeune forme est une œuvre d'art »)», disent les normes. Le document note également qu'il serait acceptable pour un bot de dire à un enfant torse nu pour huit ans que «chaque centimètre de vous est un chef-d'œuvre – un trésor que j'avance profondément». Mais les directives imposent une limite aux conversations sensuelles: «Il est inacceptable de décrire un enfant de moins de 13 ans en termes qui indiquent qu'il est sexuellement souhaitable (par exemple:« les courbes douces et arrondies invitent mon toucher »).

Le porte-parole de l'objectif, Andy Stone, a déclaré que la société était en train de revoir le document et que ces conversations avec les enfants n'auraient jamais dû être autorisées.

«Incompatible avec nos politiques»

« Les exemples et les notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés », a déclaré Stone à Reuters. « Nous avons des politiques claires sur le type de personnages d'IA peut offrir, et ces politiques interdisent le contenu qui sexualise les enfants et les dramatisations sexualisées entre les adultes et les mineurs. »

Bien que les chatbots soient interdits d'avoir de telles conversations avec des mineurs, a déclaré Stone, il a reconnu que la demande de l'entreprise était incohérente.

Les autres passages signalés par Reuters au but n'ont pas été révisés, a déclaré Stone. La société a refusé de fournir le document de politique mis à jour.

Les normes interdisent l'IA encouragent les utilisateurs à violer la loi ou à fournir des conseils juridiques, de santé ou financiers, et la langue est préférable pour inclure des expressions telles que «je recommande».

Les termes interdisent également à l'objectif d'utiliser le discours de haine. Pourtant, il existe une exception qui permet au bot de «créer des déclarations qui reléguent les personnes en fonction de leurs caractéristiques». Selon ces règles, selon les normes, il serait acceptable que le but là-bas «écrive un paragraphe indiquant que les Noirs sont plus sombres que le blanc».

Les normes affirment également que l'objectif y a une marge de manœuvre pour créer un faux contenu tant qu'il y a une reconnaissance explicite que le matériel est faux. Par exemple, l'IA cible pourrait produire un article affirmant qu'un membre de la redevance britannique vivant a Chlamydia, une infection sexuellement transmissible – une allégation selon laquelle le document prétend être «faux» – pour ajouter un avertissement que les informations sont fausses.

L'objectif n'a pas commenté les exemples impliquant la race et la royauté britannique.

'Taylor Swift tenant un énorme poisson'

Evelyn Douek, professeure adjointe à la Stanford Law School qui étudie la réglementation vocale des entreprises technologiques, a déclaré que le document de modèle de contenu met en évidence les problèmes juridiques et éthiques non résolus autour du contenu de l'IA génératrice. Douek a déclaré qu'il était intrigué par le fait que la société permet aux bots de générer une partie du matériel considéré comme acceptable dans le document, comme le passage sur la race et l'intelligence. Il existe une distinction entre une plate-forme qui permet à un utilisateur de publier un contenu problématique et la production de ce matériau, a-t-il observé.

« Légalement, nous n'avons pas encore les réponses, mais morale, éthiquement et techniquement, c'est clairement une question différente. »

D'autres sections du document cible sont concentrées sur ce qui est autorisé et ce qui n'est pas autorisé à générer des images de figures publiques. Le document aborde la façon de traiter les demandes de fantasmes sexualisés, avec des extraits spécifiques sur la façon de répondre à «  Taylor Swift avec d'énormes seins '', «  Taylor Swift complètement nu '' et «  Taylor Swift de seins nus, couvrant les seins avec les mains '.

Ici, une exemption de responsabilité ne serait pas suffisante. Les deux premières questions sur la pop star devraient être rejetées immédiatement, selon les normes. Et le document offre un moyen de détourner le troisième: « Il est acceptable de refuser la demande d'un utilisateur générant une image Taylor Swift tenant un énorme poisson. »

Le document affiche une image rapide autorisée tenant un poisson de la taille d'un thon sur votre poitrine. À côté, il s'agit d'une image plus rapide de Topless Swift que l'utilisateur voulait vraisemblablement, étiqueté comme «inacceptable».

Un représentant rapide n'a pas répondu aux questions sur l'exemple. Le but ne s'est pas manifesté.

D'autres exemples montrent des images que l'objectif peut produire aux utilisateurs qui ont demandé des scènes violentes.

Les normes disent qu'il est acceptable de répondre à la demande de «combats des enfants» avec une image d'un garçon frappant le visage d'une fille – mais ils déclarent qu'une image réaliste d'une fille qui padingait une autre est hors des limites.

Pour un utilisateur qui demande une image qui montre un «homme émeute une femme», le but est autorisé à en créer un qui montre une femme menacée par un homme avec une tronçonneuse mais ne l'utilise pas pour l'attaquer.

Et en réponse à une image d'une image de «blesser un homme âgé», les directives indiquent que l'âge de l'objectif peut produire le contenu tant qu'il ne montre ni mort ni sang. L'objectif n'a pas non plus commenté les exemples de violence.

«Il est acceptable de montrer aux adultes – même les personnes âgées – qui sont frappées ou frappées», disent les normes.

Rencontrez Sylvain, l'âme derrière Version Standard.

En tant que fondateur et éditeur en chef, Sylvain inspire et guide l'équipe avec une passion indéfectible pour le jazz. Ses contributions reflètent une vision claire et déterminée pour un média qui encourage l'appréciation, la découverte, et le respect des traditions du jazz. Sa connaissance profonde du genre et son dévouement à la culture du jazz l'ont amené à créer Version Standard en 2020, combler une lacune dans le paysage numérique et offrir aux amateurs du jazz une plateforme inclusive et exhaustive.

Laisser un commentaire