Les experts en IA, vous pensez que le forum est censuré grâce à un algo?

ANTI-BOT-55
2024-11-29 13:51:41

Question réthorique, oui évidemment Glados existe.

Mais ce que j'aimerais savoir c'est, est ce qu'on peut tester comment est paramétrer l'IA mais de manière rigoureuse ?
Par exemple faire des comptes, poster différents trucs et voir comment elle filtre ? Parce que ca n'a aucun sens, des posts inoffensifs sont supprimés pendant que d'autres restent. Sans parler des suppressions sans message qui ne peuvent pas toutes être le fait d'un admin en manuel... ou alors si ?

Des clés qui s'y connaissent un peut pourraient t'ils en parler ?

Lopax
2024-11-29 13:52:18

Oui!

ZenKo_0_mbti
2024-11-29 13:53:09

techniquement avec un chatbot il pourrait le faire mais je pense pas que ce soit le cas, étant donné que c'est possible depuis environ 10 mois étant donné les sorties technologique à prix abordablehttps://image.noelshack.com/fichiers/2023/33/1/1692004675-oppenheimer-2.png

gdfghteryergeh
2024-11-29 13:54:10

je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

ANTI-BOT-55
2024-11-29 13:54:12

Ce sui est certain c'est qu'il y a une censure par mots clés évidemment. Mais c'est plus aussi évident qu'avant de savoir quel mot est censuré.

Il me semble qu'avec une IA il est possible de déterminer la teneur émotionnelle contenue dans une message, par exemple la colère, la joie, l'excitation ect... es ce que ce serait un système du genre ?

Comment le cartographier ?

Es ce que c'est légal d'utiliser de tels dispositifs sans en avertir les utilisateurs ?

gdfghteryergeh
2024-11-29 13:55:33

Le 29 novembre 2024 à 13:53:09 :
techniquement avec un chatbot il pourrait le faire mais je pense pas que ce soit le cas, étant donné que c'est possible depuis environ 10 mois étant donné les sorties technologique à prix abordablehttps://image.noelshack.com/fichiers/2023/33/1/1692004675-oppenheimer-2.png

c'est pas abordable justement vu la quantité de message que pond le forum en 1 seconde, je pense que pour 1h de forum si tu le relie à une api de open ai meme une merdique pas cher t'en as pour plus de 400 balleshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

gdfghteryergeh
2024-11-29 13:57:04

Le 29 novembre 2024 à 13:54:12 :
Ce sui est certain c'est qu'il y a une censure par mots clés évidemment. Mais c'est plus aussi évident qu'avant de savoir quel mot est censuré.

Il me semble qu'avec une IA il est possible de déterminer la teneur émotionnelle contenue dans une message, par exemple la colère, la joie, l'excitation ect... es ce que ce serait un système du genre ?

Comment le cartographier ?

Es ce que c'est légal d'utiliser de tels dispositifs sans en avertir les utilisateurs ?

bah bien sur que c'est possible tu debarque khey ...

et oui le forum c'est pas une infrastructure publique ils font leur lois, si demain ils veulent bannir 90% des pseudo sur un coup de tete tu pourras rien faire

VittelFraiche
2024-11-29 13:57:43

Le 29 novembre 2024 à 13:51:41 ANTI-BOT-55 a écrit :
Par exemple faire des comptes, poster différents trucs et voir comment elle filtre ? Parce que ca n'a aucun sens, des posts inoffensifs sont supprimés pendant que d'autres restent.

Ce serait pas justement la preuve que ce n'est pas une IA mais juste des humains un peu blasés et trop mal payés pour leur travail ?

ANTI-BOT-55
2024-11-29 13:57:50

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

VittelFraiche
2024-11-29 13:59:55

Le 29 novembre 2024 à 13:57:50 ANTI-BOT-55 a écrit :

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

Y'a aucun intérêt à entrainer une IA sur un échantillon aussi "particulier".

C'est justement le fait que ce soit un tout petit forum qui fait que ce n'est pas vraiment intéressant.

ANTI-BOT-55
2024-11-29 14:02:45

Le 29 novembre 2024 à 13:57:43 :

Le 29 novembre 2024 à 13:51:41 ANTI-BOT-55 a écrit :
Par exemple faire des comptes, poster différents trucs et voir comment elle filtre ? Parce que ca n'a aucun sens, des posts inoffensifs sont supprimés pendant que d'autres restent.

Ce serait pas justement la preuve que ce n'est pas une IA mais juste des humains un peu blasés et trop mal payés pour leur travail ?

Quand tu te fais supprimer un message tu peux le voir dans ton historique, il y a un rectangle qui est bleu ou violet. Le bleue c'est la suppression via glados et DDB et avec un message d'avertissement.

Mais énormément de posts sont supprimés en violet, sans notif, avec un délai qui fait qu'on ne s'en rend pas compte à moins de regarder. Parfois c'est clairement des messages qui ne sont pas hors charte mais ont une teneur subversive. Sur des sujet politiques souvent. Mais parfois c'est des message qui n'ont rien à voir.

J'ai un doute sur le fait sue des gens se feraient chier à ca non ? C'est pour ca que je soupçonne un algo.

Si c'est du manuel c'est juste zinzin vu la quantité de messages. Parfois on sent une intension dans les suppressions, comme si c'était un avis qui devait disparaître sans notification. Toujours avec un petit délaie qui fait que c'est assez discret.

gdfghteryergeh
2024-11-29 14:04:07

Le 29 novembre 2024 à 13:57:50 :

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

entrainer quoi ?

webedia à pas les ressources intelectuelles pour entrainer une ia ...
il y a que les gafam qui peuvent se payer des ingés +++ pour coucurencer l'existant..

les ia qui choisisent de censurer du contenuu aussi bien qu'un humain ca le fait déja et mieux que nous d'ailleurs ..

par contre ca coute tres cher à en ressources, si c'est juste analiser les propos que tiennent 2 utilisateur parfait tu peux faire ca avec ton propre ordi et une 4080 en local (bien que la 4080 coutera 1000e)

mais 1000 utilisateurs en simultané vous ne comprenez pas les ressources monumentale que ca demande, il faut forcement inventer des stratagème ultra basique comme une selection de mot clefs pour limiter le nombre de message à faire traiter à l'ia

autrement si tu demande à un llm de traiter tous les message 1 à 1 en une seule journée webedia à déja plus de quoi payer ses employéshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

ANTI-BOT-55
2024-11-29 14:04:26

Le 29 novembre 2024 à 13:59:55 :

Le 29 novembre 2024 à 13:57:50 ANTI-BOT-55 a écrit :

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

Y'a aucun intérêt à entrainer une IA sur un échantillon aussi "particulier".

C'est justement le fait que ce soit un tout petit forum qui fait que ce n'est pas vraiment intéressant.

Sauf que si l'échantillon particulier se trouve être assez représentatif d'une catégorie que tu veux censurer. Bah ce que tu définis comme un défaut devient une qualité non ? Tu as un échantillon bien plus pur sur lequel entraîner un outil de censure non ?

Ou alors j'y connais rien en IA et je divague ?

gdfghteryergeh
2024-11-29 14:06:17

Le 29 novembre 2024 à 14:04:26 :

Le 29 novembre 2024 à 13:59:55 :

Le 29 novembre 2024 à 13:57:50 ANTI-BOT-55 a écrit :

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

Y'a aucun intérêt à entrainer une IA sur un échantillon aussi "particulier".

C'est justement le fait que ce soit un tout petit forum qui fait que ce n'est pas vraiment intéressant.

Sauf que si l'échantillon particulier se trouve être assez représentatif d'une catégorie que tu veux censurer. Bah ce que tu définis comme un défaut devient une qualité non ? Tu as un échantillon bien plus pur sur lequel entraîner un outil de censure non ?

Ou alors j'y connais rien en IA et je divague ?

il y a pas besoin d'entrainer une ia pour le forum ...

elle sait déja tres bien le faire depuis bien 2ans maintenant suffit de lui donner un prompt adequathttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

le problème comme je le repette depuis le debut c'est le cout du token et la quantité de messsages publiés sur jvc

ANTI-BOT-55
2024-11-29 14:08:45

Le 29 novembre 2024 à 14:04:07 :

Le 29 novembre 2024 à 13:57:50 :

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

entrainer quoi ?

webedia à pas les ressources intelectuelles pour entrainer une ia ...
il y a que les gafam qui peuvent se payer des ingés +++ pour coucurencer l'existant..

les ia qui choisisent de censurer du contenuu aussi bien qu'un humain ca le fait déja et mieux que nous d'ailleurs ..

par contre ca coute tres cher à en ressources, si c'est juste analiser les propos que tiennent 2 utilisateur parfait tu peux faire ca avec ton propre ordi et une 4080 en local (bien que la 4080 coutera 1000e)

mais 1000 utilisateurs en simultané vous ne comprenez pas les ressources monumentale que ca demande, il faut forcement inventer des stratagème ultra basique comme une selection de mot clefs pour limiter le nombre de message à faire traiter à l'ia

autrement si tu demande à un llm de traiter tous les message 1 à 1 en une seule journée webedia à déja plus de quoi payer ses employéshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Webedia est une entreprise de médias rien de plus. Ils gèrent la modération et le site mais le propriétaire de webedia est extrêmement riche et possède des fonds d'investissement assez gros et possède beaucoup de gros sites Français, des boites qui emploient des youtubeurs...

Sans parler de la collaboration quasi certaine avec les voisins de l'immeuble Webedia :hap:

Donc pourquoi pas ? Tu as un empire web, pourquoi pas aussi faire un outil de modération algorithmique que tu peux revendre ? Ou carrément (complo) collaborer avec un gouvernement pour créer un tel outil en se servant du forum comme échantillon ?

Mais tout ca c'est de la théorie. Je reviens à la question originale, avec des tests est il possible de détecter si la modé est l'oeuvre d'une IA ou non ?

Fankine
2024-11-29 14:10:54

C'est certain car sur un certain sujet, il suffit de s'en approcher un tant soit peu pour être insta permaban et derrière si on fait une réclamation c'est regardé par un humain et on est unban

planeteforum30
2024-11-29 14:12:47

JV a ouvert en 2018 un programme aux associations et personnalités de la société civile notamment spécialisées dans les problématiques de lutte contre les contenus haineux et illicites, permettant un accès privilégié et direct à ses équipes de modération. En 2024, les associations SOS Racisme, la LICRA, le CRIF, Renaissance Numérique, Point de Contact et e-Enfance disposent de cet accès.

https://www.jeuxvideo.com/transparence.htm

ANTI-BOT-55
2024-11-29 14:15:50

Le 29 novembre 2024 à 14:12:47 :
JV a ouvert en 2018 un programme aux associations et personnalités de la société civile notamment spécialisées dans les problématiques de lutte contre les contenus haineux et illicites, permettant un accès privilégié et direct à ses équipes de modération. En 2024, les associations SOS Racisme, la LICRA, le CRIF, Renaissance Numérique, Point de Contact et e-Enfance disposent de cet accès.

https://www.jeuxvideo.com/transparence.htm

Mmm donc les "trusted flagger"... c'est une partie de l'explication en effet. Et donc il ont le droit de faire admins et tout supprimer ?

En tous cas c'est aberrant, entre l'IA, trusted flaggers, les modos bénévoles/employés webedia et les malgaches de Netino il y a combien de gens qui sont juste sur la censure sur ce fofo bordel ? :noel:

gdfghteryergeh
2024-11-29 14:15:56

Le 29 novembre 2024 à 14:08:45 :

Le 29 novembre 2024 à 14:04:07 :

Le 29 novembre 2024 à 13:57:50 :

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

entrainer quoi ?

webedia à pas les ressources intelectuelles pour entrainer une ia ...
il y a que les gafam qui peuvent se payer des ingés +++ pour coucurencer l'existant..

les ia qui choisisent de censurer du contenuu aussi bien qu'un humain ca le fait déja et mieux que nous d'ailleurs ..

par contre ca coute tres cher à en ressources, si c'est juste analiser les propos que tiennent 2 utilisateur parfait tu peux faire ca avec ton propre ordi et une 4080 en local (bien que la 4080 coutera 1000e)

mais 1000 utilisateurs en simultané vous ne comprenez pas les ressources monumentale que ca demande, il faut forcement inventer des stratagème ultra basique comme une selection de mot clefs pour limiter le nombre de message à faire traiter à l'ia

autrement si tu demande à un llm de traiter tous les message 1 à 1 en une seule journée webedia à déja plus de quoi payer ses employéshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Webedia est une entreprise de médias rien de plus. Ils gèrent la modération et le site mais le propriétaire de webedia est extrêmement riche et possède des fonds d'investissement assez gros.

Sans parler de la collaboration quasi certaine avec les voisins de l'immeuble Webedia :hap:

Donc pourquoi pas ? Tu as un empire web, pourquoi pas aussi faire un outil de modération algorithmique que tu peux revendre ? Ou carrément (complo) collaborer avec un gouvernement pour créer un tel outil en se servant du forum comme échantillon ?

Mais tout ca c'est de la théorie. Je reviens à la question originale, avec des tests est il possible de détecter si la modé est l'oeuvre d'une IA ou non ?

Donc tu crois qu'ils vont puiser dans toutes leurs ressources internes juste pour censurer un forum d'adulte prépubère ?https://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

fait le calcul toi meme,

GPT4 turbo (pas la plus cher donc) coute 0,3$ au 1000 token.
ce qui fait 0,3$ pour 700mots environ
rajoute à cela qu'il faut qu'il ai à chaque fois un contexte de la conversation en entier donc potentiellement on peut dire que rien que ce topic de une page dois faire plus de 10K token

donc rien que pour ce topic de meme pas 1page on en aurais pour 3$ si on demandais de faire une analyse poussée du contexte de la conversation à chque post

donc 3$ pour ton topic juste, en 1h il y en a potentiellment plus de 200 qui se crées rien que sur le 18-25 et il font pas tous qu'une page ...

il y a aussi tous les forums de jvc et les forums des autres plateformes de webedia

ANTI-BOT-55
2024-11-29 14:23:03

Le 29 novembre 2024 à 14:15:56 :

Le 29 novembre 2024 à 14:08:45 :

Le 29 novembre 2024 à 14:04:07 :

Le 29 novembre 2024 à 13:57:50 :

Le 29 novembre 2024 à 13:54:10 :
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message

à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non

Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.

Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?

entrainer quoi ?

webedia à pas les ressources intelectuelles pour entrainer une ia ...
il y a que les gafam qui peuvent se payer des ingés +++ pour coucurencer l'existant..

les ia qui choisisent de censurer du contenuu aussi bien qu'un humain ca le fait déja et mieux que nous d'ailleurs ..

par contre ca coute tres cher à en ressources, si c'est juste analiser les propos que tiennent 2 utilisateur parfait tu peux faire ca avec ton propre ordi et une 4080 en local (bien que la 4080 coutera 1000e)

mais 1000 utilisateurs en simultané vous ne comprenez pas les ressources monumentale que ca demande, il faut forcement inventer des stratagème ultra basique comme une selection de mot clefs pour limiter le nombre de message à faire traiter à l'ia

autrement si tu demande à un llm de traiter tous les message 1 à 1 en une seule journée webedia à déja plus de quoi payer ses employéshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Webedia est une entreprise de médias rien de plus. Ils gèrent la modération et le site mais le propriétaire de webedia est extrêmement riche et possède des fonds d'investissement assez gros.

Sans parler de la collaboration quasi certaine avec les voisins de l'immeuble Webedia :hap:

Donc pourquoi pas ? Tu as un empire web, pourquoi pas aussi faire un outil de modération algorithmique que tu peux revendre ? Ou carrément (complo) collaborer avec un gouvernement pour créer un tel outil en se servant du forum comme échantillon ?

Mais tout ca c'est de la théorie. Je reviens à la question originale, avec des tests est il possible de détecter si la modé est l'oeuvre d'une IA ou non ?

Donc tu crois qu'ils vont puiser dans toutes leurs ressources internes juste pour censurer un forum d'adulte prépubère ?https://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

fait le calcul toi meme,

GPT4 turbo (pas la plus cher donc) coute 0,3$ au 1000 token.
ce qui fait 0,3$ pour 700mots environ
rajoute à cela qu'il faut qu'il ai à chaque fois un contexte de la conversation en entier donc potentiellement on peut dire que rien que ce topic de une page dois faire plus de 10K token

donc rien que pour ce topic de meme pas 1page on en aurais pour 3$ si on demandais de faire une analyse poussée du contexte de la conversation à chque post

donc 3$ pour ton topic juste, en 1h il y en a potentiellment plus de 200 qui se crées rien que sur le 18-25 et il font pas tous qu'une page ...

il y a aussi tous les forums de jvc et les forums des autres plateformes de webedia

Je vois, merci c'est super intéressant. Mais avec ton principe j'ai l'impression qu'entrainer une IA avec un réseaux social ne serait aucunement rentable non ? Pourtant ils le font, des particuliers comme des grosses structures.

Es ce que développer un modèle de modération de ce genre ne serait pas extrêmement rentable car il permet de remplacer des humains, ne rate rien, es facilement modifiable ?
C'est un service que tu peux revendre très cher, c'est un outil qui peut intéresser des gens dans la défense.

Après hors de la théorie que l'IA es entrainé par le forum, je reviens à la question originelle. C'est possible de faire des tests rigoureux pour palper les paramètres de cette IA ? Je répète, pas si elle s'entraine ou non mais en quelques sorte quelles sont les prompts ?

Ce serait intéressant de voir les prompts :hap:

Infos
Gestion du forum

contact@geevey.com

API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.

Notes

    ⚠️ Les archives de novembre sont désormais disponibles.
Non-assumage
    Personne n'a pas assumé de topic pour le moment.