[PhD] Je suis docteur en intelligence artificielle, je réponds aux questions
nychta
2024-03-22 22:11:45
Le 22 mars 2024 à 22:06:11 :
Le 22 mars 2024 à 22:05:17 :
Le 22 mars 2024 à 22:04:43 :
Le 22 mars 2024 à 22:02:54 :
Le 22 mars 2024 à 22:01:02 :
> Le 22 mars 2024 à 21:58:46 :
>> Le 22 mars 2024 à 21:58:13 :
> >C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png
>
> il me faut encore un millier de H100 et on y est
C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg
c'est le successeur du A100
C'est quoi un A100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg
Une CGU très puissante de NVidia pour faire du deep learning
C'est intéressant ce que tu dis clé. Il suffirait donc d'un très grand nombre de CGU pour arriver à la singularité ?
en fait pour répondre faut déjà définir ce que veut dire singularité
je vais te donenr ma def tu me dis si t'es ok avec: en gros un programme qui a des capacités d'apprentissage humaine dans le sens ou on peut nous humains appréhender/créer de nouveaux concepts très différents de ce qu'on connait deja. La ou l'ia a besoin de données pour pouvoir recracher des trucs qui resesmblent aux données qu'elle a mangé.
Donc IA = impossible de créer quelque chose de vraiment nouveau contrairement à l'humain = pas de singularité
Apres si on considère la singularité comme etant la capacité a faire des liens entre énormément d'informations, alors là pourquoi débattre, mais faudrait alors mettre un seuil à partir duquel on considère tous que c'est le cas, et j'ai pas que ça à foutre x) honnetement perso je trouve ce débat un peu éclaté même si c'est tout à fait compréhensible que le grand public soit focus là dessus
-REDPILL-
2024-03-22 22:12:34
tu bosses ou ? et quel salaire ?
-REDPILL-
2024-03-22 22:13:55
les puces apple elles sont si bien que ça pour l'ia (m3 max avec 129go de mémoire intégrée ?
ProutRecurrent
2024-03-22 22:13:59
Le 22 mars 2024 à 22:12:34 :
tu bosses ou ? et quel salaire ?
je cherche du taf nofake
nychta
2024-03-22 22:14:22
Le 22 mars 2024 à 22:11:19 :
est-ce que Chat GPT va nous remplacer nous les dev ?
non à la limite les mauvais devs et encore. Apres c'est mon avis perso je peux me tromper mais pour moi un dev dans les prochaines années si il n'utilise pas l'ia il aura un handicap fasse à la concurrence.
Par exemple aujourd'hui un dev qui n'utilise pas un IDE puissant mais un vieux notepad (ok je troll mais tu vois l'idée) bah c'est mort quoi
Buscarron
2024-03-22 22:14:22
Le 22 mars 2024 à 22:07:45 :
Le 22 mars 2024 à 22:05:37 :
Le 22 mars 2024 à 22:02:01 :
Le 22 mars 2024 à 22:00:03 :
Bon pour remonter le niveau vous en pensez quoi de la position de Le Cun qui prétend que les modèles génératifs autoregressifs sont "condamnés", comme ils peuvent pas "prévoir à l'avance" leurs prédictions et apprennent juste à reproduire les données d'entrainement ?
c'est pas un problème d'AR/NAR à mon avis.
et oui ils sont condamnés à faire ce pour quoi ils sont entrainés.
le parallèle modèle génératif/compression est le plus pertinent pour les appréhender
Tu veux dire quoi par ta dernière phrase ?
un modèle génératif (qui apprend la distribution des données) apprend implicitement un compresseur au sens où tu peux faire du codage entropique par dessus (genre littéralement un compresseur lossless comme zip par ex).
du coup quand on parle "d'hallucinations" on parle vraiment d'un modèle qui "décompresse" les données qu'il a appris
Ok j'avais pas ça en tête
Y'a juste le terme d'appréhender je vois pas trop ce que ça vient faire mais ok
Perso je pense qu'il faudrait se pencher sur des objectifs d'entrainement différents (non MLE) afin de pouvoir vraiment extrapoler des données d'entrainements. Mais c'est plus facile à dire qu'à faire, surtout en language / modalité discrète ou t'es très limité pour faire un loss custom 100% différentiable et stable
Matt
2024-03-22 22:14:41
Pas de question mais profil solide pour trouver un bon taff ça
ProutRecurrent
2024-03-22 22:14:52
Le 22 mars 2024 à 22:13:55 :
les puces apple elles sont si bien que ça pour l'ia (m3 max avec 129go de mémoire intégrée ?
intéressante pour de l'inférence oui même si 120go m3 max <<< 24go d'une 4090
Michel_Klaxonne
2024-03-22 22:15:02
Vous ne pourriez pas avoir une discussion agréable au lieu de vous bouffer la gueule comme des chiens de la casse ?https://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png
L'ego putain
-REDPILL-
2024-03-22 22:15:13
Le 22 mars 2024 à 22:13:59 ProutRecurrent a écrit :
Le 22 mars 2024 à 22:12:34 :
tu bosses ou ? et quel salaire ?
je cherche du taf nofake
aya pareil depuis que j'ai démissioné de mon taff il y a 6 mois mais j'ai juste un diplome d'inge dans la 3d (spé en VR/AR), je me demande si un doctorat ce serait interessant à faire
tu cherches un post doc j'imagine ? tu es en france là ? (surement idf)
kefnjlfewfe
2024-03-22 22:15:33
Si je veux faire de l'oseille je mets un billet sur quelle compagnie ?
Buscarron
2024-03-22 22:16:06
Le 22 mars 2024 à 22:13:55 :
les puces apple elles sont si bien que ça pour l'ia (m3 max avec 129go de mémoire intégrée ?
Pour l'inference en local c'est excellent depuis qu'Apple a sorti MLX
CoutMarginal12
2024-03-22 22:16:13
Est ce que tu dirais avoir fait quelque chose d'important pendant cette thèse ou non?
J'ai l'impression qu'en vérité, il n'y a que 10% des thèses qui ont un tant soit peu d'envergure, si j'en juge par ce que j'ai vu pendant mes années où je travaillais dans la recherche (pas en ia). La plupart des thésards sont des piètres chercheurs en vérité. C'est sans doute un jugement sévère, mais je le pense sincèrementhttps://image.noelshack.com/fichiers/2018/25/2/1529422413-risitaszoom.png
master_data
2024-03-22 22:16:17
Unet pour de la segmentation semantic binaire c'est (très) efficace ?
T'as des images ( 2 types : rgb (3) et infra rouge(1) ) et des labels (présence ou non de l'espèces, pour toute les espèces de plantes existante ). C'est donc de la classification multi labels, meilleur modele/approche pour ça ? Resnet-50 ? Des astuces pour un bon modèle ?
Cordialement,
nychta
2024-03-22 22:16:38
Le 22 mars 2024 à 22:13:59 :
Le 22 mars 2024 à 22:12:34 :
tu bosses ou ? et quel salaire ?
je cherche du taf nofake
Ca fait combien de temps que tu cherches ?
Quel coin ? Tu cherches à l'international ? Docteur en IA il y a moyen de s'amuser à l'étranger
Perso j'ai un pote il a attendu genre 6 mois avant de chercher et il a trouvé au bout de genre 2 mois, il cherchait qu'à Paris, saloperies de parigots, ca sort pas du periph ces bestioles ahah
ProutRecurrent
2024-03-22 22:17:11
Le 22 mars 2024 à 22:15:33 :
Si je veux faire de l'oseille je mets un billet sur quelle compagnie ?
sur ceux qui fabriquent les puces qui vont rivaliser NVIDIA, genre peut etre Intel ou AMD, et peut etre des nouvelles boites qui fabriquent des puces spécialisées genre Groq
J'ai pas en confiance en les boites à la OpenAI etc, je pense que le game est facile à renverser ajd, et que les fabriquants de puces sont plus safe à parier sur dés lors qu'ils montrent qu'ils ont les capacités de rivaliser
-REDPILL-
2024-03-22 22:17:56
Le 22 mars 2024 à 22:17:11 ProutRecurrent a écrit :
Le 22 mars 2024 à 22:15:33 :
Si je veux faire de l'oseille je mets un billet sur quelle compagnie ?
sur ceux qui fabriquent les puces qui vont rivaliser NVIDIA, genre peut etre Intel ou AMD, et peut etre des nouvelles boites qui fabriquent des puces spécialisées genre Groq
J'ai pas en confiance en les boites à la OpenAI etc, je pense que le game est facile à renverser ajd, et que les fabriquants de puces sont plus safe à parier sur dés lors qu'ils montrent qu'ils ont les capacités de rivaliser
ils vont se faire renverser par les concurrents open source comme llama ou mistral je pense
nychta
2024-03-22 22:18:25
Le 22 mars 2024 à 22:16:13 :
Est ce que tu dirais avoir fait quelque chose d'important pendant cette thèse ou non?
J'ai l'impression qu'en vérité, il n'y a que 10% des thèses qui ont un tant soit peu d'envergure, si j'en juge par ce que j'ai vu pendant mes années où je travaillais dans la recherche (pas en ia). La plupart des thésards sont des piètres chercheurs en vérité. C'est sans doute un jugement sévère, mais je le pense sincèrementhttps://image.noelshack.com/fichiers/2018/25/2/1529422413-risitaszoom.png
this (je me considère comme moyen)
après faut voir aussi les conditions de taf, genre meme en mettant le salaire de coté, on n'a pas forcément tous les moyens a disposition, souvent tout seul dans notre niche de niche de niche
Mais bon on les voit les DR qui prennent des doc juste pour avoir des papiers avec leurs noms pour pas cher
ProutRecurrent
2024-03-22 22:19:03
Le 22 mars 2024 à 22:16:17 :
Unet pour le segmentation semantic binaire c'est (très) efficace ?
T'as des images ( 2 types : rgb (3) et infra rouge(1) ) et des labels (présence ou non de l'espèces, pour toute les espèces de plantes existante ). C'est donc de la classification multi labels, meilleur modele/approche pour ça ? Resnet-50 ? Des astuces pour un bon modèle ?
Cordialement,
Unet c'est encore état de l'art pour les signaux "multi échelles", typiquement image et son.
Même si apparemment maintenant c'est full transformer partout partout en patchifiant.
La tendance des architectures c'est training throughput >>>>> tout le reste, d'où la domination des transformers
AngryNihilist
2024-03-22 22:19:48
Le 22 mars 2024 à 22:11:45 :
Le 22 mars 2024 à 22:06:11 :
Le 22 mars 2024 à 22:05:17 :
Le 22 mars 2024 à 22:04:43 :
Le 22 mars 2024 à 22:02:54 :
> Le 22 mars 2024 à 22:01:02 :
>> Le 22 mars 2024 à 21:58:46 :
> >> Le 22 mars 2024 à 21:58:13 :
> > >C'est pour bientôt la singularité ? On s'ennuie sec là. Vous attendez quoi pour la faire pop ?https://image.noelshack.com/fichiers/2022/49/4/1670535141-tareent.png
> >
> > il me faut encore un millier de H100 et on y est
>
> C'est quoi un H100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg
c'est le successeur du A100
C'est quoi un A100 ?https://image.noelshack.com/fichiers/2023/03/6/1674322118-picsart-23-01-18-22-21-57-848-adobe-express.jpg
Une CGU très puissante de NVidia pour faire du deep learning
C'est intéressant ce que tu dis clé. Il suffirait donc d'un très grand nombre de CGU pour arriver à la singularité ?
en fait pour répondre faut déjà définir ce que veut dire singularité
je vais te donenr ma def tu me dis si t'es ok avec: en gros un programme qui a des capacités d'apprentissage humaine dans le sens ou on peut nous humains appréhender/créer de nouveaux concepts très différents de ce qu'on connait deja. La ou l'ia a besoin de données pour pouvoir recracher des trucs qui resesmblent aux données qu'elle a mangé.
Donc IA = impossible de créer quelque chose de vraiment nouveau contrairement à l'humain = pas de singularité
Apres si on considère la singularité comme etant la capacité a faire des liens entre énormément d'informations, alors là pourquoi débattre, mais faudrait alors mettre un seuil à partir duquel on considère tous que c'est le cas, et j'ai pas que ça à foutre x) honnetement perso je trouve ce débat un peu éclaté même si c'est tout à fait compréhensible que le grand public soit focus là dessus
La première définition me va oui.