Nous avons maintenant besoin d’un modèle capable de le définir, car il n’existe pas encore de définition claire.
C’est vrai, et en même temps, nous, les humains, faisons un excellent travail en prétendant que cette définition existe. Dans la vie quotidienne de la justice. Ce n’est pas parfait, mais nous savons généralement si quelque chose est haineux ou non.
Des termes tels que blanc, noir et immigrant seraient-ils également détectés comme discours de haine ?
Il ne s’agit pas seulement de se baser sur un mot, mais aussi de prendre en compte le contexte.
Et le modèle peut-il gérer le sarcasme ?
Oui, les modèles linguistiques de pointe peuvent très bien gérer cela.
Eh bien, ne vous inquiétez pas s’ils voient à travers la double couche de sarcasme, ils reconnaissent très bien les sifflets de chien.
Je pense qu’utiliser 1 modèle ne peut jamais fonctionner. Il serait préférable de proposer des modèles concurrents pour différentes plates-formes.
Tout à fait d’accord, la diversité est importante.
Sinon, un mot sera bientôt sur une liste noire (ce mot est aussi aujourd’hui un discours de haine) et vous ne pourrez plus l’exprimer nulle part.
Je ne m’inquiéterais pas pour cela, les techniques d’aujourd’hui ne dépendent pas d’un seul mot. Les anciens systèmes de filtrage fonctionnent avec des listes fixes de mots interdits. Le fait est que les nouveaux systèmes y parviennent mieux car ils ne s’intéressent pas tant aux mots que vous utilisez, mais à la manière dont vous les utilisez.
Si je traite le chien du voisin de chienne, il n’y a rien de mal, si j’appelle le voisin de cette façon….
Le modèle tiendrait-il également compte du cachet en étain du message ? Un terme qui est aujourd’hui considéré comme insultant ne l’était peut-être pas à l’époque. Dans ce cas, une application rétroactive ne serait pas appropriée.
Je pense que cela dépend de la manière dont vous souhaitez utiliser le modèle et de ce que vous essayez de réaliser. Si vous ne voulez pas lire certaines choses, vous ne voulez pas les lire si elles ont été écrites plus tôt. Si vous voulez savoir ce que les gens pensaient les uns des autres dans le passé, vous voulez également savoir si quelque chose était perçu comme haineux ou non.
Un terme qui est aujourd’hui considéré comme insultant ne l’était peut-être pas à l’époque.
S’il s’agit uniquement du terme, ces filtres devraient très bien le traiter car ils peuvent regarder au-delà de ce terme jusqu’au message sous-jacent.
La difficulté ici est que nous devons également nous demander qui considère un terme comme offensant ou non et quelles en sont les conséquences. Il y a un demi-siècle, il était socialement acceptable de frapper des enfants, même s’ils étaient enfants d’étrangers. Aujourd’hui, nous pensons que frapper les enfants n’est jamais la meilleure solution. Cela signifie-t-il qu’ils n’aimaient pas leurs enfants avant ? Non bien sûr que non. Cela rend-il acceptable de justifier la violence parce qu’elle était « du passé » ? Non pas ça.
Nous pouvons regarder en arrière et dire que le comportement de l’époque était mauvais, même s’il y avait de bonnes intentions derrière cela.
Il en va de même pour les insultes. Le fait que certains points de vue étaient tout à fait normaux il y a cent ans ne les rend pas innocents. Avec le recul, on peut encore conclure que certains termes ou opinions étaient offensants, même si la société de l’époque voyait les choses différemment.
2024-07-09 13:55:00
1720530154
#Une #startup #belge #dIA #développe #modèle #linguistique #capable #détecter #les #discours #haine #Pro #News