[PhD] Je suis docteur en intelligence artificielle, je réponds aux questions

Buscarron
2024-03-22 22:00:03

Bon pour remonter le niveau vous en pensez quoi de la position de Le Cun qui prétend que les modèles génératifs autoregressifs sont "condamnés", comme ils peuvent pas "prévoir à l'avance" leurs prédictions et apprennent juste à reproduire les données d'entrainement ?

GusFrimousse
2024-03-22 22:00:23

Le 22 mars 2024 à 21:59:06 :

Le 22 mars 2024 à 21:58:38 :

Le 22 mars 2024 à 21:53:59 :

Le 22 mars 2024 à 21:40:27 :

Le 22 mars 2024 à 21:39:00 :
Es-tu d'accord avec le fait que les LLM ont atteint leurs limites intrinsèques, et que l'IAG reste inextinguible a l'humanité dans le paradigme productif actuel ? Et que par conséquent le substrat biologique restera dominant en termes d'intelligence, pour encore au moins un siècle de plus ?https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Ce que tu dis n'a aucun sens car tu ne comprends pas dans quel but les LLMs sont entrainés

Je suis un énorme profane en ce qui concerne l'intelligence artificielle, je l'admethttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Les principaux dirigeants des startups en intelligence artificielle, tels que Sam Altman, ne cessent de nous répéter que les LLM pourraient conduire à l'émergence d'une AGI.https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
Mais de ce que je comprends, les LLM ne sont que des modèles de langage probabilistes, donc au mieux, ils ne sont que des "perroquets stochastiques".https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

En conséquence, nous sommes d'accord que Sam Altman et ses pairs se moquent de nous lorsqu'ils affirment que ces modèles pourraient donner naissance à une intelligence artificielle générale ?
https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Si tu pouvais éclairer ma lanterne à ce sujet.https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Tu as tout à fait bien compris la vulgarisation d'un LLM, khey, j'ai rien à ajouter.

Quant aux " AGI ", c'est plus un projet, un objectif, un idéal de l'IA, mais avec nos connaissances actuelles je vois plus ça comme un mélange des meilleurs modèles pour chaque tâche (langue, image, video, raisonnement, etc.) ce qui permettrait de tout faire au mieux

Je vois pas trop ça comme de la science fiction

ton avis n'était pas nécessaire :rire:

Le médiocre a le seum, cocasse car je suis formé en hypernetwork, c'est sûrement moi qui peut le plus parler d'AGI sur ce topic

CtrlplusR
2024-03-22 22:01:00

Le 22 mars 2024 à 21:03:59 :
titre

Merci on a pas besoin de toi :rire:

AngryNihilist
2024-03-22 22:01:02

Le 22 mars 2024 à 21:58:46 :

Le 22 mars 2024 à 21:58:13 :
C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png

il me faut encore un millier de H100 et on y est :oui:

C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

GusFrimousse
2024-03-22 22:01:24

Le 22 mars 2024 à 22:00:03 :
Bon pour remonter le niveau vous en pensez quoi de la position de Le Cun qui prétend que les modèles génératifs autoregressifs sont "condamnés", comme ils peuvent pas "prévoir à l'avance" leurs prédictions et apprennent juste à reproduire les données d'entrainement ?

Le mec cite des tweets et il espère " remonter le niveau "

nychta
2024-03-22 22:01:51

Le 22 mars 2024 à 21:53:59 :

Le 22 mars 2024 à 21:40:27 :

Le 22 mars 2024 à 21:39:00 :
Es-tu d'accord avec le fait que les LLM ont atteint leurs limites intrinsèques, et que l'IAG reste inextinguible a l'humanité dans le paradigme productif actuel ? Et que par conséquent le substrat biologique restera dominant en termes d'intelligence, pour encore au moins un siècle de plus ?https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Ce que tu dis n'a aucun sens car tu ne comprends pas dans quel but les LLMs sont entrainés

Je suis un énorme profane en ce qui concerne l'intelligence artificielle, je l'admetshttps://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Les principaux dirigeants des startups en intelligence artificielle, tels que Sam Altman, ne cessent de nous répéter que les LLM pourraient conduire à l'émergence d'une AGI.https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg
Mais de ce que je comprends, les LLM ne sont que des modèles de langage probabilistes, donc au mieux, ils ne sont que des "perroquets stochastiques".https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

En conséquence, nous sommes d'accord que Sam Altman et ses pairs se moquent de nous lorsqu'ils affirment que ces modèles pourraient donner naissance à une intelligence artificielle générale ?
https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Si tu pouvais éclairer ma lanterne à ce sujet.https://image.noelshack.com/fichiers/2019/12/3/1553090920-untitled-1.jpg

Oui en effet attention aux discours AGI etc .... Il y a des évolutions assez impressionnantes des modèles mais à la fin des fin ce n'est pas intelligent. Comme tu dis c'est des perroquets

Apres attention à ne pas tomber dans l'opposé c'est à dire "ah bah c'est bon techno de merde", nan il y a des applications interessantes (medicales par ex) et aussi dangereuses (les prochaines années avec les scam boosté par de l'ia et surtout le cote ingénierie social ca va faire du dégat, ca a déjà commencé en vrai)

ProutRecurrent
2024-03-22 22:02:01

Le 22 mars 2024 à 22:00:03 :
Bon pour remonter le niveau vous en pensez quoi de la position de Le Cun qui prétend que les modèles génératifs autoregressifs sont "condamnés", comme ils peuvent pas "prévoir à l'avance" leurs prédictions et apprennent juste à reproduire les données d'entrainement ?

c'est pas un problème d'AR/NAR à mon avis.
et oui ils sont condamnés à faire ce pour quoi ils sont entrainés.
le parallèle modèle génératif/compression est le plus pertinent pour les appréhender

ProutRecurrent
2024-03-22 22:02:54

Le 22 mars 2024 à 22:01:02 :

Le 22 mars 2024 à 21:58:46 :

Le 22 mars 2024 à 21:58:13 :
C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png

il me faut encore un millier de H100 et on y est :oui:

C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

c'est le successeur du A100 :oui:

GusFrimousse
2024-03-22 22:03:25

Le 22 mars 2024 à 21:59:03 :

Sauf qu'avec ton relativisme niais on arrive à un " docteur en IA " qui ne comprend pas ce qui motive intuitivement l'idée de multitête pour le mécanisme d'attention

Tu trouves ça normal ?

Je suis d'accord qu'il faut savoir certaines choses mais comme je t'ai dit tu ne peux pas utiliser un article de 2004 avec moins de 200 citations comme base pour questionner quelqu'un que tu connais ni d'eve ni d'adam ( petit jeu de mot t'as vu :) )

Apres attention a ta vision, certains pourraient dire on ne fait rien qu'avec de la théorie (je ne sais pas ce que tu fais, j'essaye juste de pousser ta réflexion) et que des fois il faut faire des choses plus indus et donc mixer avec d'autres connaissances pour faire de l'interdisciplinaire et in fine tu ne peux pas demander à qqn de tout maitriser

Citer le nombre de citation de Desideri est malhonnête, c'est pas un chercheur en IA mais un chercheur en algorithmique et optimisation.

Pour être plus juste faut prendre les articles d'implementation dans le contexte de backpropagation.

Sinon je suis d'accord avec toi sur le fond hein, mais l'OP a tout l'air d'être une grosse fraude

AngryNihilist
2024-03-22 22:04:43

Le 22 mars 2024 à 22:02:54 :

Le 22 mars 2024 à 22:01:02 :

Le 22 mars 2024 à 21:58:46 :

Le 22 mars 2024 à 21:58:13 :
C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png

il me faut encore un millier de H100 et on y est :oui:

C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

c'est le successeur du A100 :oui:

C'est quoi un A100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

GusFrimousse
2024-03-22 22:05:17

Le 22 mars 2024 à 22:04:43 :

Le 22 mars 2024 à 22:02:54 :

Le 22 mars 2024 à 22:01:02 :

Le 22 mars 2024 à 21:58:46 :

Le 22 mars 2024 à 21:58:13 :
C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png

il me faut encore un millier de H100 et on y est :oui:

C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

c'est le successeur du A100 :oui:

C'est quoi un A100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

Une CGU très puissante de NVidia pour faire du deep learning

Buscarron
2024-03-22 22:05:37

Le 22 mars 2024 à 22:02:01 :

Le 22 mars 2024 à 22:00:03 :
Bon pour remonter le niveau vous en pensez quoi de la position de Le Cun qui prétend que les modèles génératifs autoregressifs sont "condamnés", comme ils peuvent pas "prévoir à l'avance" leurs prédictions et apprennent juste à reproduire les données d'entrainement ?

c'est pas un problème d'AR/NAR à mon avis.
et oui ils sont condamnés à faire ce pour quoi ils sont entrainés.
le parallèle modèle génératif/compression est le plus pertinent pour les appréhender

Tu veux dire quoi par ta dernière phrase ?

ProutRecurrent
2024-03-22 22:05:41

Le 22 mars 2024 à 22:04:43 :

Le 22 mars 2024 à 22:02:54 :

Le 22 mars 2024 à 22:01:02 :

Le 22 mars 2024 à 21:58:46 :

Le 22 mars 2024 à 21:58:13 :
C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png

il me faut encore un millier de H100 et on y est :oui:

C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

c'est le successeur du A100 :oui:

C'est quoi un A100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

l'ancien gpu fer de lance de NVIDIA

AngryNihilist
2024-03-22 22:06:11

Le 22 mars 2024 à 22:05:17 :

Le 22 mars 2024 à 22:04:43 :

Le 22 mars 2024 à 22:02:54 :

Le 22 mars 2024 à 22:01:02 :

Le 22 mars 2024 à 21:58:46 :

> Le 22 mars 2024 à 21:58:13 :

>C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png

il me faut encore un millier de H100 et on y est :oui:

C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

c'est le successeur du A100 :oui:

C'est quoi un A100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

Une CGU très puissante de NVidia pour faire du deep learning

C'est intéressant ce que tu dis clé. Il suffirait donc d'un très grand nombre de CGU pour arriver à la singularité ?

CoutMarginal12
2024-03-22 22:07:16

Peux-tu confirmer ou infirmer ces points
1) Luc Julia, cet escroc totalement dépassé qui croit avoir encore la moindre pertinence pour donner des conférences sur l'IA
2) Yann le Cun, probablement un des plus gros melons de la tech, d'ailleurs je me demande s'il est intelligent tout court (un Denis Habassis a probalement 30 points de QI de plus que lui)

ProutRecurrent
2024-03-22 22:07:45

Le 22 mars 2024 à 22:05:37 :

Le 22 mars 2024 à 22:02:01 :

Le 22 mars 2024 à 22:00:03 :
Bon pour remonter le niveau vous en pensez quoi de la position de Le Cun qui prétend que les modèles génératifs autoregressifs sont "condamnés", comme ils peuvent pas "prévoir à l'avance" leurs prédictions et apprennent juste à reproduire les données d'entrainement ?

c'est pas un problème d'AR/NAR à mon avis.
et oui ils sont condamnés à faire ce pour quoi ils sont entrainés.
le parallèle modèle génératif/compression est le plus pertinent pour les appréhender

Tu veux dire quoi par ta dernière phrase ?

un modèle génératif (qui apprend la distribution des données) apprend implicitement un compresseur au sens où tu peux faire du codage entropique par dessus (genre littéralement un compresseur lossless comme zip par ex).
du coup quand on parle "d'hallucinations" on parle vraiment d'un modèle qui "décompresse" les données qu'il a appris

GusFrimousse
2024-03-22 22:08:01

Le 22 mars 2024 à 22:06:11 :

Le 22 mars 2024 à 22:05:17 :

Le 22 mars 2024 à 22:04:43 :

Le 22 mars 2024 à 22:02:54 :

Le 22 mars 2024 à 22:01:02 :

> Le 22 mars 2024 à 21:58:46 :

>> Le 22 mars 2024 à 21:58:13 :

> >C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png

>

> il me faut encore un millier de H100 et on y est :oui:

C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

c'est le successeur du A100 :oui:

C'est quoi un A100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg

Une CGU très puissante de NVidia pour faire du deep learning

C'est intéressant ce que tu dis clé. Il suffirait donc d'un très grand nombre de CGU pour arriver à la singularité ?

GPU* je me suis trompé

Et non je crois qu'il te trollait

ProutRecurrent
2024-03-22 22:09:47

Le 22 mars 2024 à 22:07:16 :
Peux-tu confirmer ou infirmer ces points
1) Luc Julia, cet escroc totalement dépassé qui croit avoir encore la moindre pertinence pour donner des conférences sur l'IA

énorme escroc oui, insupportable boomer

2) Yann le Cun, probablement un des plus gros melons de la tech, d'ailleurs je me demande s'il est intelligent tout court (un Denis Habassis a probalement 30 points de QI de plus que lui)

je l'ai rencontré dans un comité d'évaluation. il est sympa et un peu du genre "le vieux qui donne son avis sur tout". il a quand même un joli parcours mais c'est vrai que son prix turing aurait pu être attribué à des mecs plus balèzes.

CoutMarginal12
2024-03-22 22:10:12

Le 22 mars 2024 à 22:09:47 :

Le 22 mars 2024 à 22:07:16 :
Peux-tu confirmer ou infirmer ces points
1) Luc Julia, cet escroc totalement dépassé qui croit avoir encore la moindre pertinence pour donner des conférences sur l'IA

énorme escroc oui, insupportable boomer

2) Yann le Cun, probablement un des plus gros melons de la tech, d'ailleurs je me demande s'il est intelligent tout court (un Denis Habassis a probalement 30 points de QI de plus que lui)

je l'ai rencontré dans un comité d'évaluation. il est sympa et un peu du genre "le vieux qui donne son avis sur tout". il a quand même un joli parcours mais c'est vrai que son prix turing aurait pu être attribué à des mecs plus balèzes.

Top, merci pour la réponse :ok:

RFC_Sport_GAME
2024-03-22 22:11:19

est-ce que Chat GPT va nous remplacer nous les dev ?

Infos
Gestion du forum

contact@geevey.com

API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.

Notes

    Partenaire: JVFlux
    Ce site n'est pas associé à Jeuxvideo.com ou Webedia. Nous utilisons seulement des archives publiques.
    Il est inutile de me spammer par e-mail pour supprimer un topic. Au contraire, en conséquence, je mettrais votre topic dans le bloc ci-dessous.
Non-assumage
    Personne n'a pas assumé de topic pour le moment.