Le 10 mars 2023 à 00:42:37 :
Le 10 mars 2023 à 00:33:12 :
Le 10 mars 2023 à 00:30:14 :
Le 10 mars 2023 à 00:22:26 :
Le 10 mars 2023 à 00:14:09 :
differentes methodes d'entrainements sur un LSTM ?C’est de la merde les LSTM, faut souvent faire du teacher forcing sauf que ça créée pleins de problèmes + propagations d’erreurs + c’est AR donc passe pas bien à l’échelle
Teacher forcing / exposure bias c’est pareil sur les transformers kheyou
Et pour avoir bosser le sujet les quelques solution de gen à base de RL ou relaxation continu = trop de variance, aucune fiabilité
Je pense que faut faire avec et bosser sur des meilleures techniques de decoding ARDepuis quand y a du teacher forcing avec les transformers ? Ils fonctionnent strictement de la même manière en entraînement queen inférence ?
Et au moins ils passent à l’échelleBah la génération est AR, donc forcément tu samples les tokens un par un, c’est pas differentiable, donc exposure bias
Y’a tout un champ de recherche qui essaye de mitiger çaDans les domaines continus la génération est tellement moins chiante
J’adore le fonctionnement dès diffusion models aussi, c’est hyper élégant y’a rien de plus adapté. Sauf que pour du texte ça marche pas
Bah pour moi un transformer justement c’est pas AR
C’est juste une grosse matrice de self attention, c’est littéralement trois couches linéaires + activations et un soft max donc c’est tout ce qu’il y a de plus NAR
Le 10 mars 2023 à 00:37:57 :
Le 10 mars 2023 à 00:34:03 :
Le 10 mars 2023 à 00:27:24 :
Le 10 mars 2023 à 00:25:45 :
Le 10 mars 2023 à 00:23:17 :
Difficile de rentrer en master IA avec une licence INFO ? combien de moyenne ?On peut s'initier à l'IA par soi même ?
Quel type d'algorithme d'IA préfère tu ?
Y'a des débouchés à l'étranger par exemple ?
Aucune idée
Oui si on a des connaissances en maths/info et qu’on est un nerdz
J’aime les modèles génératifs en général, les modèles de diffusion sont extrêmement funs (et fonctionnent diablement bien)
J’aime les méthodes à noyaux (pour la beauté)
J’aime la programmation dynamique
Oui je crois en tout cas si t’es bonOk, quel type d'IA la plus simple faire de chez moi afin d'avoir des résultat simple et rapidement ?
Une petite IA d'algo génétique c'est faisable ?
Jamais vu algo génétique servir à qq chose
c'est assez puissant, ca permet de faire évoluer une solution sur un espace énorme de recherche.
et donc aussi par exemple de faire de l'apprentissage un-supervised en scorant les résultats d'une population de nnet.
un peu comme le q-learning.
J’ai jamais vu un algo génétique résoudre quoi que ce soit en dehors de cas synthétique
Le 10 mars 2023 à 00:37:08 :
Décris comment fonctionne l'algo xgboost
Le 10 mars 2023 à 00:37:08 :
Décris comment fonctionne l'algo xgboost
Tu crées une série de modèle qui corrigent les résidus et qui fonctionnent ensemble
Le 10 mars 2023 à 00:27:24 :
Le 10 mars 2023 à 00:25:45 :
Le 10 mars 2023 à 00:23:17 :
Difficile de rentrer en master IA avec une licence INFO ? combien de moyenne ?On peut s'initier à l'IA par soi même ?
Quel type d'algorithme d'IA préfère tu ?
Y'a des débouchés à l'étranger par exemple ?
Aucune idée
Oui si on a des connaissances en maths/info et qu’on est un nerdz
J’aime les modèles génératifs en général, les modèles de diffusion sont extrêmement funs (et fonctionnent diablement bien)
J’aime les méthodes à noyaux (pour la beauté)
J’aime la programmation dynamique
Oui je crois en tout cas si t’es bonOk, quel type d'IA la plus simple faire de chez moi afin d'avoir des résultat simple et rapidement ?
Une petite IA d'algo génétique c'est faisable ?
Jamais vu algo génétique servir à qq chose
Le 10 mars 2023 à 00:30:14 :
Le 10 mars 2023 à 00:22:26 :
Le 10 mars 2023 à 00:14:09 :
differentes methodes d'entrainements sur un LSTM ?C’est de la merde les LSTM, faut souvent faire du teacher forcing sauf que ça créée pleins de problèmes + propagations d’erreurs + c’est AR donc passe pas bien à l’échelle
Teacher forcing / exposure bias c’est pareil sur les transformers kheyou
Et pour avoir bosser le sujet les quelques solution de gen à base de RL ou relaxation continu = trop de variance, aucune fiabilité
Je pense que faut faire avec et bosser sur des meilleures techniques de decoding AR
Depuis quand y a du teacher forcing avec les transformers ? Ils fonctionnent strictement de la même manière en entraînement queen inférence ?
Et au moins ils passent à l’échelle
Le 10 mars 2023 à 00:25:22 :
Dernière lecture intéressante je dirai DetectGPT
Mais depuis quelques mois je lis plus énormément, j’ai tellement de trucs à faire que les quelques papiers que je vois passer je l s torche en diagonale a part ceux qui m’intéressent vraimentEt toi ?
Ok connais pas j’irai voir
Perso c’est les VQVAE qui me fascinent, j’ai l’impression de les redécouvrir avec Encodec et les VQDiff (imagine un modèle de diffusion sur des latentes discrètes qui masque au lieu de bruiter)
Je comprends pas pourquoi ils sont aussi puissants
Le 10 mars 2023 à 00:23:17 :
Difficile de rentrer en master IA avec une licence INFO ? combien de moyenne ?On peut s'initier à l'IA par soi même ?
Quel type d'algorithme d'IA préfère tu ?
Y'a des débouchés à l'étranger par exemple ?
Aucune idée
Oui si on a des connaissances en maths/info et qu’on est un nerdz
J’aime les modèles génératifs en général, les modèles de diffusion sont extrêmement funs (et fonctionnent diablement bien)
J’aime les méthodes à noyaux (pour la beauté)
J’aime la programmation dynamique
Oui je crois en tout cas si t’es bon
Le 10 mars 2023 à 00:18:26 :
ce qui m'etonne dans ces nouvelles filières, AI, data scientist etc..
c'est qu'en sortie d'étude, on vous enlève python, tensorflow, et la, ben y a plus rienhttps://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png
Moi je suis plutôt Pytorch et Jax mais effectivement si tu m’enlèves python je ne sers plu à rien
Le 10 mars 2023 à 00:14:09 :
differentes methodes d'entrainements sur un LSTM ?
C’est de la merde les LSTM, faut souvent faire du teacher forcing sauf que ça créée pleins de problèmes + propagations d’erreurs + c’est AR donc passe pas bien à l’échelle
Le 09 mars 2023 à 23:50:14 :
Je bosse à peu près sur les mêmes choses que toi, modèles génératifs pour texte et autre modalité kheyouLa en ce moment plus sur l’évaluation des résultats pour essayer d’avoir des trucs plus pertinents sur bleu etc
Intéressant moi kheyou, quelle est ta dernière lecture intéressante ?
Le 09 mars 2023 à 23:55:03 :
quel est ton avis sur le débat qui fait rage concernant les ia type midjourney stable diffusion and co qui s'entrainent sur des bases de données remplies d'images copyrightéeshttps://image.noelshack.com/fichiers/2017/31/2/1501584559-larry-bot-2-par-alectrona.png
Je m’en branle pour être tout à fait honnête
Le 09 mars 2023 à 23:57:18 :
C'est pas tout le temps la même chose ce genre de job en vrai?
C’est à la fois répétitif et ça change tous les 6 mois ahiiii mais le bon côté c’est qu’on peut laisser libre court à son imagination (en particulier avec les modèles génératifs)
Le 10 mars 2023 à 00:03:33 :
Comment tu construis une bonne base de données (représentative etc) pour l'apprentissage d'un algo ?
Il faut filer la tâche à un stagiaire
Sérieusement c’est une tache infâme et j’ai la chance de bosser avec des parternaires industrielles qui nous filent des données d’une qualité exceptionnelle
Le 10 mars 2023 à 00:10:51 :
Y'a beaucoup de modeles multimodaux qui sortent en ce moment, ca avance a un rythme effréné, tu predis quand la premiere AGI l'op ?
C’est terriblement vrai, en TTS par exemple VALL-E (et Facebook ont sorti un équivalent ) a démontré qu’un modèle de langage simple et passé a lechelle type DALL-E peut enculer toute la baseline et resoudre a lui seule le cas de zero shot (copier une voix quoi)
Le 09 mars 2023 à 23:37:07 :
Combien de first author Neurips ?
J’espère que t’en aura au moins 3 avant la fin de ta thèse pour espérer avoir du boulot bro
J'en ai 0 et ça n'a absolument aucune influence sur la suite de ta carrière, j'ai des amis qui ont percé avec des papiers intéressants publiés dans des confs/revues de seconde zone