1 lien privé
Cette vidéo parle du plus grand danger, selon moi, à accepter, normaliser et encourager le développement d'algorithmes comme #ChatGPT. Ce danger est celui du #cybercrime, aujourd'hui plus puissant que les GAFAM réunis.
Chat-GPT3 est un agent conversationnel dont le potentiel semble fulgurant. Si le modèle de langage sous-jacent est déjà bien éprouvé, en quoi cette technologie pourrait marquer un bouleversement dans nos pratiques numériques ?
Pour éviter ce genre de travers, OpenAI, l'éditeur du chatbot, a mis en place un système de filtre de récompenses en demandant à des humains de classer des exemples de texte en leur attribuant une étiquette de « violence », « discours de haine » ou d' « abus sexuel ».
OpenAI a envoyé à une entreprise de sous-traitance kényane des dizaines de milliers d'exemples contenant des descriptions de situations violentes avec des détails d'actes pédocriminels, de bestialité, de meurtres, de suicides, de tortures et d'incestes.
Propre…