Messages de blackapplex

Le 21 mars 2019 à 22:21:52 TensorFIow a écrit :

Le 21 mars 2019 à 22:20:03 Blarkblork a écrit :
"Oui je fait layers.dense sur Keras" :rire:

tensorflow le fait dejahttps://image.noelshack.com/fichiers/2017/22/1496583962-risisingecigarette.png
https://www.tensorflow.org/api_docs/python/tf/layers/dense
mais j'avoue, c'est pas le mieux sur tensorflowhttps://image.noelshack.com/fichiers/2017/22/1496583962-risisingecigarette.png

D'ailleurs j'ai l'impression que Tensorflow va arrêter son support de "layers" pour tout foutre dans keras nan? C'est pas vers ça qu'ils vont avec le tf.layers.conv2d en deprecated?

Le 21 mars 2019 à 22:20:03 Blarkblork a écrit :
"Oui je fait layers.dense sur Keras" :rire:

model = keras.IA.solve_my_problem("Wesh salut, il me faut un réseau de classif qui a 40mAP sur coco et qui peut avoir un backbone qui lui fait faire de la classif, bise ma gueule")

Le 21 mars 2019 à 22:17:32 CarmelitaSpats a écrit :

Le 21 mars 2019 à 22:14:44 blackapplex a écrit :

Le 21 mars 2019 à 22:11:44 CarmelitaSpats a écrit :
Dynet en c++ perso

Quel cancer :malade:

200 lignes de code pour un MLP et toi :rire:

Une ? :noel:
J'avoue que je tire moins mon mérite de la prog d'un MLP que de la publication d'un réseau avec 300 couches basé sur un code pas trop dégueu

Le 21 mars 2019 à 22:15:09 TensorFIow a écrit :
vous etes ou les scikit-learnistes ?https://image.noelshack.com/fichiers/2017/22/1496583962-risisingecigarette.png

data = read('fichier')
traindata, testdata = split(data)
model = train(traindata)
score = eval(model,testdata)

Et l'autre avec son dynet qui fait ça en 3000lignes

Le 21 mars 2019 à 22:11:44 CarmelitaSpats a écrit :
Dynet en c++ perso

Quel cancer :malade:

"Tu fais du deep learning?" "Oui j'ai jamais codé de backpropagation parallélisée de ma vie"
Lyon est devenue à peu près aussi cher que Paris, donc elle a pas un intérêt supérieur.
Strasbourg / Rennes :ok:

Le 17 mars 2019 à 14:19:21 phoqueZisChiit a écrit :

Le 17 mars 2019 à 14:16:33 blackapplex a écrit :

Le 17 mars 2019 à 14:12:26 DoigtDeArdisson a écrit :
Du coup, pour un matheux, qui fais pas beaucoup d'info, faut mieux aller où ?

Pas dans la data.
Mais l'info c'est un peu un incontournable à vrai dire, quoique tu fasses je pense.
Ptet dans la compta? :-/

ba matheux il faut faire de la recherche c'est aussi simple que ça
arrêtez d'essayer de faire des maths pour ensuite faire autrechose que des maths

ouais la recherche en math. M'enfin c'est pas forcément le secteur qui recrute le plus, mais après tout les réseaux de neurones sont un peu nés grâce à ça, fallait quand même un ptit peu de math pour la descente de gradient, maintenant c'est plus vraiment d'actualité mais si des gars arrivent à rendre 2x plus efficaces ces calculs ils rendre 2x plus efficaces tous les modèles existants sur terre donc ils seront adulés :hap:
Mais idem, l'opti c'est surtout de l'info

Le 17 mars 2019 à 14:12:26 DoigtDeArdisson a écrit :
Du coup, pour un matheux, qui fais pas beaucoup d'info, faut mieux aller où ?

Pas dans la data.
Mais l'info c'est un peu un incontournable à vrai dire, quoique tu fasses je pense.
Ptet dans la compta? :-/

Le 17 mars 2019 à 14:02:12 jeanrangcarton a écrit :
Donc la différence serait l'efficacité et non le concept en lui même ?

Essentiellement oui.
Rien ne t'empêche de faire tourner un modèle de régression linéaire sur l'ensemble des pixels d'une image pour espérer avoir une classification derrière.
Sur MNIST t'atteindra ptet 80% (les réseaux font 99.9%?)
Sur CIFAR10 t'atteindra ptet 10% (les réseaux font 96%)
Sur COCO tu seras probablement autour de 1 en mAP, en étant gentil, après un entrainement de 5ans alors qu'avec un réseau de neurone t'es à 40 en mAP en entrainant 1 jour sur plusieurs GPU

Le 17 mars 2019 à 13:56:56 jeanrangcarton a écrit :
Pourquoi on différencie les réseaux de neurones des autres méthodes de classification (random forest svm etc...?) ?

La réponse je crois est assez simple, les réseaux de neurones ont une architecture qui fait qu'ils peuvent traiter plus rapidement et plus efficacement des images.
C'est sur cette spécificité qu'ils ont émergé et qu'ils ont fait naitre une nouvelle science d'analyse autour de leur fonctionnement: le deep learning.
Ils sont un peu plus couteau suisse que des méthodes genre "kppv / random forest" qui ont du mal à fournir des représentations intermédiaires de la données pendant son traitement (svm peut le faire mais est moins précis que les réseaux de neurones dans plein de situation)

J'ai lu en travers l'article sur l'analyse des papiers arxiv, ça va pas ultra en profondeur c'est dommage, il y a mieux à faire.

Le 17 mars 2019 à 13:41:57 ErenGoMuscu a écrit :

c'est juste la méta-organisation de notre structure cérébrale qui importe, pour moi c'est la seule clé de l'énigme, ensuite tu peux foutre des neurones, des régressions, ce que tu veux, je pense que ça passe.

Oui c'est plus ou moins ce qui fait consensus dans la recherche dans ce moment sur ce qu'il manque pour avoir une IA forte

Et c'est clairement un problème d'ordre scientifique.

J'avais jamais vu ça comme ça mais je partage à peu près ton avis IMO compte tenu des connaissances actuel une IA général contiendra très probablement de toute façon une archi qui ressemble à du réseau de neurone

Soit du deep reinforcement learning ou alors du deep learning mélangé avec de l'autoencodeur qui me semble être la meilleur technique connu actuellement pour quelque chose qui ressemble à de la meta cognition chez les machines.

Oui pour moi aussi les autoencodeurs sont l'avenir mais uniquement s'ils sont bien maniés, et je pense que si on s'intéresse aux techniques émergentes genre GAN / réseaux siamois on va pouvoir mettre en place des autoencodeurs plus qualitatifs qui permettront in-fine de créer une IA qui méritera davantage son nom.
J'ai déjà essayé de faire des autoencodeurs et si tu fais juste quelque chose de naïf sur cifar10 t'arrives à rien, il faut bosser le truc plus en profondeur.

Et d'ailleurs je dis que si on croit que le DL peut pas faire une IA générale, c'est parce que 99% du cas il est utilisé sur de l'image et 99% du temps en supervisé, alors que les images sont des données non structurées mais qui contiennent aussi très peu d'information en comparaison du texte et d'une analyse non supervisée du texte.

Le 17 mars 2019 à 13:36:51 RegleGraduee a écrit :
Je pense qu'actuellement c'est un domaine surcoté, et beaucoup d'entreprise dépense des fortunes dans ces postes, en pensant qu'ils vont trouver une mine d'or caché depuis le début derrière les chiffres...
Je suis sûr que dans 90% des cas c'est totalement inutile, et que ça se résume à des stats et des études d'utilisateurs/de marché. Ce qui a toujours existé.

Et comme l'a montré une étude récente en Europe 70% des startups se réclamant de l'IA, en réalité n'en utilise aucune

90% ? :(
40% je dirai plutôt.... l'analyse de donnée apporte quoiqu'il arrive si elle est bien faite pour les entreprises moyennes et grosses. Là où ça contribue pas c'est si les données sont mal spécifiées, mal récupérées ou mal analysées.
Je peux t'optimiser le CA d'une boulangerie sans trop de soucis perso, pourvu que j'ai les bonnes données de ce qu'ils vendent.

Le 17 mars 2019 à 13:22:36 ErenGoMuscu a écrit :

machine learning > all je suis d'accord, enfin deep learning > machine learning > all.

Bof https://www.technologyreview.com/s/612768/we-analyzed-16625-papers-to-figure-out-where-ai-is-headed-next/
J'adore le deep learning mais justement je pense qu'il faut savoir rester à jour sur toute les autres techniques et je pense même qu'elles sont complémentaires

Puis on arrivera pas à une IA générale avec juste du DL :hap:

J'adore ta dernière phrase, je vais y revenir.
Je considère que DL > ML juste parce que si tu sais faire du DL, tu sais faire du ML. Donc forcément quelqu'un qui fait du DL me semble être apte à résoudre davantage de problèmes. Sauf vraiment si t'as un gars qui est passé que par la case réseaux de neurones sans random forest / regression / analyse discriminante etc.. ça m'étonnerait.

Passons. Je pensais comme toi sur l'IA générale. Mais j'ai évolué récemment pour être largement moins convaincu de ça. Et j'en viens même à penser que n'importe quel modèle de machine learning peut servir à faire une IA générale. Evidemment je vais pas le prouver, j'y travaille donc si ça émerge tu le sauras, et je suis pas le seul. Mais pour laisser une piste d'instinct, je pense que notre complexité réside plus dans notre architecture globale que dans nos neurones au niveau bas de l'organisation de notre cerveau. Au niveau intra-organisationnel de notre cerveau, on est organisé un peu comme les réseaux de neurones artificiels au final, mais les réseaux de neurones artificiels sont capable de faire tout ce que font des modèles classiques, parfois mieux et parfois moins bien, donc pour moi la sous-organisation est pas un critère discriminant, c'est juste la méta-organisation de notre structure cérébrale qui importe, pour moi c'est la seule clé de l'énigme, ensuite tu peux foutre des neurones, des régressions, ce que tu veux, je pense que ça passe.
Ce qui fait que je pense que le DL peut suffire, c'est que c'est déjà apte à traiter des images et à apprendre de façon très précise, et cela même en non supervisé. Le DL a beaucoup commencé avec l'image, mais c'est un biais incroyable parce que du coup 99% des gens qui travaillent dans le DL sont dans l'image, or pour moi la solution vient du texte. Une image contient très peu d'intelligence, le texte en contient énormément et quand tu vois justement des modèles comme les bi-LSTM sur des embeddings ELMo qui arrivent à comprendre à peu près toute notre capacité d'utilisation des mots, tu te dis qu'il reste juste à intégrer ça dans une architecture ad-hoc avec mémoire structurée pour finaliser le modèle d'IA générale.

L'autre biais de croire que les réseaux de neurones sont pas la solution c'est parce que leur qualité la plus grande c'est la descente de gradient parallélisée. Or ça n'est pas le seul algorithme capable de faire converger un réseau de neurone. Un bon algo de Blackbox Optimisation suffit à faire converger n'importe quel modèle paramétrable

Le 17 mars 2019 à 13:21:52 Arcticus a écrit :
Le truc c'est que c'est la rué vers la data en ce moment et il y a plein de gens qui se disent data scientist et qui effectivement sont de piètre codeurs et pas spécialement de bon matheux.

Ceci dit des gens vraiment bon ça existe :( Mais ce sont des gens qui ont de bonnes connaissances en probabilité et surtout statistiques (descriptives).

Chaque employeur devra faire le tri dans tout ça :hap:

C'est sûr que pour un bon t'en as 30 qui sont des ex-dev web qui ont suivi un tuto sur coursera et qui sont infoutu de développer de leur propre initiative du code pertinent.

Le 17 mars 2019 à 13:19:45 GiniPiggu7 a écrit :

Le 17 mars 2019 à 13:06:43 blackapplex a écrit :

Tout ce qu'il font, un développeur lambda peut le faire

+1 :rire:
Bordel pas savoir utilsier scikitlearn en 2019. C'est 3 lignes de python :rire:
Pas savoir développer un resnet en tensorflow pour fit une classif sur des images :rire:
Pas savoir utiliser un bi-LSTM sur embeddings ELMO pour détecter des signaux faibles et faire des l'analyse émotionnelle :rire:
Et on en parle de ceux qui sont infoutus de te citer l'architecture inception ou YOLO par coeur ? :rire:

C'est d'une tristesse d'en arriver làhttps://image.noelshack.com/fichiers/2017/11/1489491335-djellit.png
Les mecs préfèrent créer une nouveau dictionnaire pour justifier leur job de merde plutôt que trouver un vrai métierhttps://image.noelshack.com/fichiers/2017/11/1489491335-djellit.png

On utilise du jargon et on se sent PROFESSIONNELhttps://image.noelshack.com/fichiers/2017/11/1489491335-djellit.png

LES ELITES DECONNECTEShttps://image.noelshack.com/fichiers/2018/48/7/1543744503-gobelin-cone.png

Bordel t'as déjà eu un travail khey :rire:? Tous les métiers ont leur jargon. Evidemment ceux qui font du deep ont le leur.

Le 17 mars 2019 à 13:11:05 gkguvjnec a écrit :

Le 17 mars 2019 à 13:06:43 blackapplex a écrit :

Tout ce qu'il font, un développeur lambda peut le faire

+1 :rire:
Bordel pas savoir utilsier scikitlearn en 2019. C'est 3 lignes de python :rire:
Pas savoir développer un resnet en tensorflow pour fit une classif sur des images :rire:
Pas savoir utiliser un bi-LSTM sur embeddings ELMO pour détecter des signaux faibles et faire des l'analyse émotionnelle :rire:
Et on en parle de ceux qui sont infoutus de te citer l'architecture inception ou YOLO par coeur ? :rire:

Merci pour ton intervention Corentin, on utilise des mots de l'IT et on se sent BRANLEURhttps://image.noelshack.com/fichiers/2017/19/1494343590-risitas2vz-z-3x.png

Mon analyseur émotionnel me dit que ton post a une corrélation de 0.9 avec la chute du cours de l'action de Boeing.
Je vends :noel:

Le 17 mars 2019 à 13:14:54 ErenGoMuscu a écrit :

Le 17 mars 2019 à 13:09:24 picti90bis4 a écrit :
Concrètement, en quoi consiste ce métier ? :(

ça dépend tu as plusieurs sous branchement

Mais en très résumé ils utilisent un grand nombre de données pour prédire des choses.

C'est un métier ultra demandé et d'avenir car ça s'applique à tout vu que l'entierté de l'univers peut se résumé à un flux de données

Par exemple en médecine le data scientist va remarquer des régularités sur les données des patients ayant X maladie qu'on aurait pas pu remarqué autrement genre " Tiens y'a 10 000 patient ayant eu X et Y qui ont contracté la maladie alors qu'il ne semblait pas avoir de corrélation direct "

C'est pour ça le "scientist " ça mimique la démarche scientifique et tu "découvre" des choses

Hors du troll jvc.comien ça reste un domaine assez passionnant mais machine learning > all :)

Puis la avec la médecine je t'ai donnée un exemple intéressant mais malheureusement dans ce monde merdique la grosse majorité des data scientist finissent par devenir des PM dégeulasse qui vont identifier comment plus te faire cliquer sur des pubs :)

machine learning > all je suis d'accord, enfin deep learning > machine learning > all.
En vrai j'en connais beaucoup qui ont tenté la data, ils ont pas aimé, tout le monde veut faire du machine learning t'es bien plus utile. Dans un cas t'es esclave d'un patron pour faire du chiffre sans réfléchir ou juste stocker des données débiles, dans l'autre il y a des aspects scientifiques plus poussées et t'as le sentiment d'une réelle contribution.