Le 27 juin 2024 à 22:45:00 : C'est juste que les lambda n'ont rien compris à ce que c'était Ils ont été impressionnés, parce qu'ils pensaient que chat GPT reproduisait le comportement du cerveau humain grâce à ses belles réponses, mais le machine learning n'a rien à voir.
Bah c'est le cas en fait, l'architecture transformer est la meilleure architecture possible pour imitter l'intelligence
Non, on est encore très loin de l'intelligence, même pas à 0,1%. Le modèle GPT ne sait pas inventer, juste reproduire et composer. Si tu pose une problématique qui n'a jamais été posée par des humains il est incapable d'y répondre.
Le 27 juin 2024 à 22:45:00 : C'est juste que les lambda n'ont rien compris à ce que c'était Ils ont été impressionnés, parce qu'ils pensaient que chat GPT reproduisait le comportement du cerveau humain grâce à ses belles réponses, mais le machine learning n'a rien à voir.
Bah c'est le cas en fait, l'architecture transformer est la meilleure architecture possible pour imitter l'intelligence
Non, on est encore très loin de l'intelligence, même pas à 0,1%. Le modèle GPT ne sait pas inventer, juste reproduire et composer. Si tu pose une problématique qui n'a jamais été posée par des humains il est incapable d'y répondre.
non l'argument du perroquet stochastique a été debunk depuis un moment déjà, y'a plein d'études qui ont mis en lumière le fait que gpt est capable de développer des représentations internes du monde dans son modèle et qu'il est capable d'inventer des choses qu'ils n'a pas apprises spécifiquement, par exemple aux echecs il peut jouer avec un bon niveau des positions inédites, video pour les noobs et merci d'arrêter de répéter des sottises si vous n'y connaissez rien
Le 27 juin 2024 à 22:56:05 : Par contre, ça fait 1 an que gpt 4 est sorti.
oui et même si c'était 2 ans ça changerait pas grand chose, internet a été inventé en 1969, çà a commencé à être grand public au début des années 2000 et il aura fallu attendre encore bien des années pour que ça devienne l'internet qu'on connait aujourd'hui, la technologie si bien soit elle ne va pas forcément transormer la société en 3 ans
Le peu de fois où je j'ai posé des questions à Chat GPT (via Bing) il a ruéssi a m'apporter des réponses qui m'ont aidé Par contre j'ai vu des captures d'écran de khey qui lui posaient des question assez simple en math et franchement ses réponses tournent parfois à la zinzineriehttps://image.noelshack.com/fichiers/2017/50/7/1513505533-ahi.png
Le 27 juin 2024 à 22:59:21 : Le peu de fois où je j'ai posé des questions à Chat GPT (via Bing) il a ruéssi a m'apporter des réponses qui m'ont aidé Par contre j'ai vu des captures d'écran de khey qui lui posaient des question assez simple en math et franchement ses réponses tournent parfois à la zinzineriehttps://image.noelshack.com/fichiers/2017/50/7/1513505533-ahi.png
Intelligence =/= calculer
Y'a les calculatrices pour calculer
Et ChatGPT intègre des calculatrices comme Wolfram
Par contre en raisonnement GPT-4 est très bon, il raisonne très bien
Le 27 juin 2024 à 22:59:21 : Le peu de fois où je j'ai posé des questions à Chat GPT (via Bing) il a ruéssi a m'apporter des réponses qui m'ont aidé Par contre j'ai vu des captures d'écran de khey qui lui posaient des question assez simple en math et franchement ses réponses tournent parfois à la zinzineriehttps://image.noelshack.com/fichiers/2017/50/7/1513505533-ahi.png
Intelligence =/= calculer
Y'a les calculatrices pour calculer
Et ChatGPT intègre des calculatrices comme Wolfram
Par contre en raisonnement GPT-4 est très bon, il raisonne très bien
Non mais c'est surtout que les réponses sur les captures d'écran était vraiment drôle Il partait dans des raisonnement complètement farfelu, on aurait dit un mec bourré
Le 27 juin 2024 à 22:41:24 : Tu rigoles ? Je m'en sers tous les jours de GPT4 à mon taf, il me mâche 50% de mes tâches et je taf 2h30 max au lieu 5h par jour maintenant c'est no fake
C'est quoi ton taf ? Bullshitjob qui consiste à réécrire des trucs que personne lit ?
La singularité technologique est une chimèrehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg Nous sommes en réalités plus proches d'un hiver de l'IA que de la singularitéhttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
Il y a quelques mois, on lisait partout qu'on aurait une AGI en quelques mois/années, que les LLM étaient la route à suivre, qu'ils deviendraient exponentiellement meilleurs à (en gros) tout fairehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
Ce n'est plus le cas. Les gens sérieux se sont rendus compte que nous étions arrivés aux limites des LLM, et que ça allait devenir de plus en plus difficile et cher de leur faire gagner de moins en moins de performance à ceux-cihttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
GPT-4 était décevant par rapport au progrès que représentait GPT-3, et GPT-5 sera lui aussi décevant (malgré des coûts d'entraînement qui explosent). Google a bossé 2 ans sur un modèle concurrent, avec des moyens financiers et humains illimités, le gain de performance est ridicule. Tou ce qui se développe aujourd'hui, c'est essentiellement des wrappers, des outils. Les LLM eux-mêmes ne progressent pas dans les tâches réellement complexes, qui impliquent du raisonnement par exemplehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
L'investissement va diminuer, les chercheurs qui sont mobilisés sur la question vont être de moins en moins et il faudra attendre 20 ans pour avoir une nouvelle innovation de rupture qui engendrera le même cyclehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
Le 27 juin 2024 à 23:23:35 : La singularité technologique est une chimèrehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg Nous sommes en réalités plus proches d'un hiver de l'IA que de la singularitéhttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
Il y a quelques mois, on lisait partout qu'on aurait une AGI en quelques mois/années, que les LLM étaient la route à suivre, qu'ils deviendraient exponentiellement meilleurs à (en gros) tout fairehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
Ce n'est plus le cas. Les gens sérieux se sont rendus compte que nous étions arrivés aux limites des LLM, et que ça allait devenir de plus en plus difficile et cher de leur faire gagner de moins en moins de performance à ceux-cihttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
GPT-4 était décevant par rapport au progrès que représentait GPT-3, et GPT-5 sera lui aussi décevant (malgré des coûts d'entraînement qui explosent). Google a bossé 2 ans sur un modèle concurrent, avec des moyens financiers et humains illimités, le gain de performance est ridicule. Tou ce qui se développe aujourd'hui, c'est essentiellement des wrappers, des outils. Les LLM eux-mêmes ne progressent pas dans les tâches réellement complexes, qui impliquent du raisonnement par exemplehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
L'investissement va diminuer, les chercheurs qui sont mobilisés sur la question vont être de moins en moins et il faudra attendre 20 ans pour avoir une nouvelle innovation de rupture qui engendrera le même cyclehttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
non chatgpt 5 et le prochain claude sont largement aussi des modeles actuels selon openai et anthropics
API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.
Notes
Partenaire: JVFlux Ce site n'est pas associé à Jeuxvideo.com ou Webedia. Nous utilisons seulement des archives publiques. Il est inutile de me spammer par e-mail pour supprimer un topic. Au contraire, en conséquence, je mettrais votre topic dans le bloc ci-dessous.