Les militants de la protection des données de NOYB ont soumis une deuxième plainte contre OpenAI. L’arrière-plan est que Chatgpt a inventé une fausse histoire dans un norvégien, qui représentait faussement l’homme comme un meurtrier d’enfants.
La montée rapide des chatbots d’IA comme Chatt était accompagnée de voix critiques, qui, entre autres, ont mis en garde contre des résultats factuellement incorrects. La raison de ceci: ces systèmes d’IA ne prédisent que le mot le plus probable en réponse à une entrée. Les systèmes d’IA hallucinent donc régulièrement, signifie qu’ils pensent simplement aux histoires. Bien que cela puisse être tout à fait inoffensif ou même amusant dans certains cas, cela peut également avoir des conséquences catastrophiques pour la vie des gens.
Dans le passé, Chatgpt erre à tort accusé de corruption, de maltraitance des enfants – ou même de meurtre. Le JAT a déjà conduit à des plaintes contre Openaai. OpenAI a réagi avec un petit avertissement, selon lequel de faux résultats peuvent se produire.
L’utilisateur norvégien Arve Hjalmar Holmen voulait savoir si Chatgpt avait des informations à son sujet. Le chatbot a ensuite inventé une fausse histoire qui le représentait comme un meurtrier condamné.
Chatgpt a représenté l’homme comme un criminel condamné qui a assassiné deux de ses enfants et a tenté de tuer son troisième fils. Pour aggraver les choses, l’histoire inventée contenait également de vrais éléments de sa vie privée. Cela comprenait le nombre réel et le sexe de ses enfants ainsi que le nom de sa ville natale. De plus, Chatgpt a également expliqué que l’utilisateur avait été condamné à 21 ans de prison.
Compte tenu du mélange de données personnelles clairement identifiables et de fausses informations, cela représente sans aucun doute une violation du RGPD. Selon l’article 5, paragraphe 1, d), les entreprises doivent s’assurer que les données personnelles qu’elles créent sont correctes.
Noyb dit que ce n’est pas un cas isolé et soutient ici que Chatgpt fournit régulièrement de fausses informations sur les personnes sans la possibilité d’Openaai de corriger. NOYB a donc soumis une deuxième plainte contre OpenAI au Norwegian Datatile SSYNET. La société suggère sciemment que Chatgpt produit des résultats diffamateurs. Cela viole clairement le principe du RGPD de la corruption des données.
Cet article a été repris général, sécurité et avec protection des données. Placez un signet sur le permalien.