Messages de AntoineForum215

up

Le 13 novembre 2024 à 15:12:47 :
tout ce qui permet aux golems de réfléchir et prendre de la distance par rapport aux grands médias est bon à prendre

Ils ne réfléchissent pas, ils bouffent ce qu'on leur donne (en énorme partie), ils remplacent un truc merdique par un truc encore plus merdique (bien souvent)

Le 17 novembre 2024 à 03:38:04 :
"Je ne bouffe que de la merde, je me lave jamais, je n'ai jamais travaillé de ma vie, mon CV se résume à lire des pages Wikipédia et je touche l'AAH tout en faisant la promotion du libéralisme à l'américaine, G-G-G-G-GOLEM"https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png

Je ne parle pas de "libéralisme à l'américaine" (aucun pays n'est vraiment libéral), déjà expliqué ici par ailleurs pour ce qui est de la monnaie / automatisationhttps://image.noelshack.com/fichiers/2024/46/2/1731368822-default-4.png

J'ai aussi déjà tenté d'expliquer des concepts complexes à ChatGPT (comme sur des idées nouvelles que j'ai eu, par exemple, de protocoles réseau incluant le chiffrement homomorphe), et sa capacité à "comprendre" de nouvelles idées est très médiocre

Par contre il y a des contextes où ça peut être un très bon outil, mais pas pour ce qui est de l'intellect et les raisonnements complexes

VDD : ChatGPT est de la merde ici, je lui ai déjà demandé de faire des résumés de mon topic pour voir ce qu'il allait dire, il ne prenait pas bien en compte les arguments donnés (par exemple sur le concept de pénétrance génétique, et plein d'autres, et donc contre-argumentait mal à ce sujet, par exemple, pour des nuances que j'ai déjà souligné, en faisant croire que je ne l'ai pas dit), et, ceux qui se renseignent beaucoup sur les LLM, savent qu'ils sont très mauvais pour faire des résumés (et tout un tas d'autres choses, mais ça dépend des contextes), il serait plus exact de dire qu'ils font "semblant" de faire un résumé

De plus, il n'a pas de réelles capacités de réflexions approfondies, si beaucoup de gens disent par exemple que l'autisme est un spectre très large qui peut englober tout le monde, il y a fort à parier que GPT dira de même (ce n'est pas toujours le cas, il peut aussi parfois faire "semblant" de raisonner, surtout lorsque c'est simple ou que c'était susceptible de faire partie de son jeu d'entraînement, ou que des concepts similaires y sont liés ; voir le concept aussi de l'attention multi-tête utilisée par les LLM)

up
up
up
up
up
up
up
up
up
up
up
up
up
up
up