Le 24 août 2023 à 12:23:13 Bourledban a écrit :
Les soignants qui subissent tout sans rien dire. Les 4 doses en dénigrant les collègues qui ont dit non.
Le manque de moyens, d'argent, la chaleur, le système d en permanence.Putain ces masochistes en puissance.
Ils disent pas rien, ils sont souvent en grève et en manif
Tu veux qu'ils fassent quoi de plus ?
Le 24 août 2023 à 12:06:04 Cardioperial5 a écrit :
Chaque année c'est pareil a l hôpital on est obligé de mettre des clims mobiles
On a le droit a 4clims max pour un service de 40litsDonc bon pour pas faire de jaloux on les met dans les bureaux des médecins
Mais non ??
Le 24 août 2023 à 12:04:11 FuturSombre a écrit :
Au bout d'un moment faut choisir entre faire venir la misère du monde et avoir la climatisation en été.
C'est quoi le rapport
En Allemagne ils ont de l'immigration et les hôpitaux sont climatisés
Le 24 août 2023 à 12:02:40 SaucissonVener a écrit :
Le 24 août 2023 à 11:57:52 :
Le 24 août 2023 à 11:57:24 cametek a écrit :
Pas de clim même dans les hopitauxhttps://image.noelshack.com/fichiers/2018/13/4/1522325846-jesusopti.png On crêve mais on se sent protecteur de l'environnement
https://image.noelshack.com/fichiers/2018/13/4/1522325846-jesusopti.png Apparemment c'est surtout pour des questions de bugget qu'ils en mettent pas
https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png Bugget
Budjey
Le 24 août 2023 à 12:00:44 Substans a écrit :
Bah c'est l'été c'est normal, c'est ça que vous dites non ?
L'été à +10 degrés de la normale dans la moitié sud du pays
Le 24 août 2023 à 11:57:24 cametek a écrit :
Pas de clim même dans les hopitauxhttps://image.noelshack.com/fichiers/2018/13/4/1522325846-jesusopti.png On crêve mais on se sent protecteur de l'environnement
https://image.noelshack.com/fichiers/2018/13/4/1522325846-jesusopti.png
Apparemment c'est surtout pour des questions de bugget qu'ils en mettent pas
Le 24 août 2023 à 11:56:42 DardDeDarmanin a écrit :
Les fronçais ont voté pour ça, aucune excuse
Hein
44 degrés au CHU de Bordeaux : "On laisse les patients dans un four"
Le CHU de Bordeaux aurait relevé une température de 44°C dans les chambres du service de pédiatrie. Une situation préoccupante pour les patients et contre laquelle aucune solution pérenne n'a été mise en place.
https://www.allodocteurs.fr/44-degres-au-chu-de-bordeaux-on-laisse-les-patients-dans-un-four-35498.html
Dans les chambres de pédiatrie en plus bordel
Ce père de famille a dû acheter et installer lui-même une clim' pour son bébé : https://twitter.com/Mediavenir/status/1694389330087682081
Bordel mais quelle honte
Me dis pas que t’es pas au courant que la psychologie est gangrenée par des failles épistémologiques fondamentales ? Tout comme le champ de la psychométrie ?
Ioannidis qui rigole
Enfin bref j'arrête de pourrir le topic du khey
Pour ceux qui veulent creuser, le papier dont je parle : https://arxiv.org/abs/2306.05720
Y'a des papiers du même genre pour ChatGPT : les IA retiennent pas juste les mots ou données de leur entraînement et les recrachent, elle font des corrélations et enregistrent des généralisations, des proto-concepts, dans leurs neurones
Ici, un modèle de génération d'image a pas juste retenu plein d'images de table, elle a reconstruit une visualisation 3D d'une table "idéale"
Le 23 août 2023 à 22:34:01 GusFricadelle a écrit :
Le 23 août 2023 à 22:31:58 :
Le 23 août 2023 à 22:26:56 GusFricadelle a écrit :
Le 23 août 2023 à 22:23:17 :
Le 23 août 2023 à 22:15:54 GusFricadelle a écrit :
> Le 23 août 2023 à 22:09:24 :
>> Le 23 août 2023 à 22:03:39 GaryValentine a écrit :
> >
> > Vaguement. En dehors de Chalmers, j’ai des références assez limitées concernant les philosophes de l’esprit contemporains. Mais on ne les a pas attendu pour saisir les failles fondamentales du physicalisme.
>
> J'étais un peu pareil mais après avoir creusé et pas mal suivi les avancements en IA, je suis devenu plus humble
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png >
> Bien sûr que la plupart des physicalistes de l'esprit sont des demeurés, mais y'a des exceptions
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png >
> Jaegwon Kim n'est pas Paul Churchland, pour résumer
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png les progrès en IA ne disent RIEN de l'intelligence
ChatGPT est juste bon pour faire ce pourquoi elle a été programmé : imiter le langage de façon naturelle
Lui demande de raisonner, c'est comme cuire des crêpes avec un micro-onde : elle n'est structurellement pas faite pour ça
je BOSSE littéralement sur GPT-4, je fais de la recherche en IA
https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png Et non GPT n'a aucune capacité de raisonnement, son embedding n'est pas une conceptualisation mais est construit sur le mécanisme d'attention comme tous les transformers
Les tests dont tu parles " est-ce qu'elle est capable de raisonner " sont fait a posteriori en jugeant les textes qu'il pond, ce qui n'a aucune valeur puisque GPT pioche dans ses données d'entrainement les données.
Exemple : le raisonnement par analogie n'est pas fait par GPT par un vrai raisonnement analogie (un déplacement de concept) mais uniquement en reconnaissant les structures de langage propre à l'analogie. Tu peux littéralement faire ça avec une IA NER encore, sans que ce soit considérable comme de l'intelligence
Comment tu peux raisonner sans concept ?
J'ai pas envie de pourrir le topic du khey avec un débat annexe sur l'IA khey
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Donc je dirais juste deux choses : déjà, la critique tu fais, que j'entends, à savoir que ChatGPT s'en fout de savoir si ce qu'il dit est vrai ou non, je la trouve moyennement bonne. Elle est admise dans les milieux français (de Mr. Phi à Le Cun), mais chez OpenAI par exemple ils sont bien conscients de ce problème, et les premiers chiffres semblent indiquer que GPT-4 hallucine déjà moins que ses versions antérieures
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png De plus, même si c'était vrai, ça serait juste parce qu'on l'a construite avec un modèle bien précis (LLM) qui en effet ne cherche pas la justesse de la proposition, mais il suffirait de faire différemment et le problème sauterait
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png c'est justement ce que Le Cun essaie de faire chez Meta avec ses modèles "incarnés"https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Dans les benchmarks de réflexion, on voit très clairement que l'IA a des capacités de raisonnement et s'améliore petit à petit, et ta réflexion sur le fait qu'elle aurait juste eu accès aux sets de questions dans ses données est débile, dans tous les papiers de benchmarks sérieux que j'ai vu ils y ont pensé hein et inventent de nouveaux problèmes à chaque fois
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Enfin, Gemini arrive bientôt, et ça sera pas une LLM pure, je crois qu'on est pas prêt pour le génie d'Hassabis
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png AlphaFold par exemple, se soucie déjà de savoir si la réponse qu'il donne est vraie ou fausse
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Ca me semble très faible comme critique
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png mais en fait je répète, le fait qu'elle se trompe n'est pas un argument contre l'IA (tout le monde se trompe), mais mes exemple (le fait qu'elle créée littéralement de fausses infos en se basant sur mon prompt) montre qu'elle est structurellement pas fait pour cela
GPT n'a pas été créé par OpenAI pour être une IA qui donne de vraie info, elle a été faite pour discuter de façon naturelle, comme son nom l'indique: C'EST TOUT
Tu lis pas ce que je te dis
J'en parle littéralement, et je donne un contre-exemple avec AlphaFold
Le 23 août 2023 à 22:30:31 GusFricadelle a écrit :
Le 23 août 2023 à 22:29:33 :
Le 23 août 2023 à 22:23:17 :
Le 23 août 2023 à 22:15:54 GusFricadelle a écrit :
Le 23 août 2023 à 22:09:24 :
> Le 23 août 2023 à 22:03:39 GaryValentine a écrit :
>
> Vaguement. En dehors de Chalmers, j’ai des références assez limitées concernant les philosophes de l’esprit contemporains. Mais on ne les a pas attendu pour saisir les failles fondamentales du physicalisme.
J'étais un peu pareil mais après avoir creusé et pas mal suivi les avancements en IA, je suis devenu plus humble
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Bien sûr que la plupart des physicalistes de l'esprit sont des demeurés, mais y'a des exceptions
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Jaegwon Kim n'est pas Paul Churchland, pour résumer
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png les progrès en IA ne disent RIEN de l'intelligence
ChatGPT est juste bon pour faire ce pourquoi elle a été programmé : imiter le langage de façon naturelle
Lui demande de raisonner, c'est comme cuire des crêpes avec un micro-onde : elle n'est structurellement pas faite pour ça
Cf mon topic :
https://www.jeuxvideo.com/forums/42-51-72216067-1-0-1-0-ayaa-chatgpt-se-fout-de-nos-gueules-depuis-le-debut-en-fait.htmSauf que c'est factuellement faux, on peut le voir dans tous les benchmarks de raisonnement, ChatGPT a des capacités de réflexion, et elles se sont améliorées avec chaque nouvelle version
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png La plupart des gens qui chient sur ChatGPT n'ont jamais utilisé GPT-4
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Et Gemini arrive dans quelques mois, ça va être un bordel
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png ChatGPT est encore faillible pour la logique et certaines formes de mathématiques :
https://medium.com/@konstantine_45825/chatgpt-is-no-stochastic-parrot-but-it-also-claims-that-1-is-greater-than-1-e3cd1fc303e0mais même si elle l'était pas ce serait pas par intelligence mais par recopie brute du langage, en bref une heureuse conséquence de la façon dont elle est entrainée
ChatGPT ne fait pas que recopier le langage, faut arrêter avec ce mythe
On peut clairement mesurer son intelligence sur des benchmarks avec des questions tout juste inventées qui n'existent pas dans son dataset, et on voit l'évolution avec les modèles
Y'a même un papier qui est sorti récemment qui a confirmé ce que tout le monde pensait : le modèle a généré un modèle du monde à partir de ses données
C'est juste logique en fait, ses neurones retiennent pas des mots mais une forme de proto-conceptualisation, elle généralise et compresse l'information comprise dans les textes
Le 23 août 2023 à 22:29:33 GaryValentine a écrit :
Le 23 août 2023 à 22:23:17 :
Le 23 août 2023 à 22:15:54 GusFricadelle a écrit :
Le 23 août 2023 à 22:09:24 :
Le 23 août 2023 à 22:03:39 GaryValentine a écrit :
Vaguement. En dehors de Chalmers, j’ai des références assez limitées concernant les philosophes de l’esprit contemporains. Mais on ne les a pas attendu pour saisir les failles fondamentales du physicalisme.
Lui demande de raisonner, c'est comme cuire des crêpes avec un micro-onde : elle n'est structurellement pas faite pour ça
Cf mon topic :
https://www.jeuxvideo.com/forums/42-51-72216067-1-0-1-0-ayaa-chatgpt-se-fout-de-nos-gueules-depuis-le-debut-en-fait.htmSauf que c'est factuellement faux, on peut le voir dans tous les benchmarks de raisonnement, ChatGPT a des capacités de réflexion, et elles se sont améliorées avec chaque nouvelle version
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png La plupart des gens qui chient sur ChatGPT n'ont jamais utilisé GPT-4
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Et Gemini arrive dans quelques mois, ça va être un bordel
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png ChatGPT est encore faillible pour la logique et certaines formes de mathématiques :
https://medium.com/@konstantine_45825/chatgpt-is-no-stochastic-parrot-but-it-also-claims-that-1-is-greater-than-1-e3cd1fc303e0
Oui ça personne le nie, c'est son point faible pour ça qu'ils ont tenté d'intégrer Wolfram Alpha
Le 23 août 2023 à 22:26:56 GusFricadelle a écrit :
Le 23 août 2023 à 22:23:17 :
Le 23 août 2023 à 22:15:54 GusFricadelle a écrit :
Le 23 août 2023 à 22:09:24 :
Le 23 août 2023 à 22:03:39 GaryValentine a écrit :
Vaguement. En dehors de Chalmers, j’ai des références assez limitées concernant les philosophes de l’esprit contemporains. Mais on ne les a pas attendu pour saisir les failles fondamentales du physicalisme.
J'étais un peu pareil mais après avoir creusé et pas mal suivi les avancements en IA, je suis devenu plus humble
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Bien sûr que la plupart des physicalistes de l'esprit sont des demeurés, mais y'a des exceptions
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Jaegwon Kim n'est pas Paul Churchland, pour résumer
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png les progrès en IA ne disent RIEN de l'intelligence
ChatGPT est juste bon pour faire ce pourquoi elle a été programmé : imiter le langage de façon naturelle
Lui demande de raisonner, c'est comme cuire des crêpes avec un micro-onde : elle n'est structurellement pas faite pour ça
je BOSSE littéralement sur GPT-4, je fais de la recherche en IA
https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png Et non GPT n'a aucune capacité de raisonnement, son embedding n'est pas une conceptualisation mais est construit sur le mécanisme d'attention comme tous les transformers
Les tests dont tu parles " est-ce qu'elle est capable de raisonner " sont fait a posteriori en jugeant les textes qu'il pond, ce qui n'a aucune valeur puisque GPT pioche dans ses données d'entrainement les données.
Exemple : le raisonnement par analogie n'est pas fait par GPT par un vrai raisonnement analogie (un déplacement de concept) mais uniquement en reconnaissant les structures de langage propre à l'analogie. Tu peux littéralement faire ça avec une IA NER encore, sans que ce soit considérable comme de l'intelligence
Comment tu peux raisonner sans concept ?
J'ai pas envie de pourrir le topic du khey avec un débat annexe sur l'IA khey
Donc je dirais juste deux choses : déjà, la critique tu fais, que j'entends, à savoir que ChatGPT s'en fout de savoir si ce qu'il dit est vrai ou non, je la trouve moyennement bonne. Elle est admise dans les milieux français (de Mr. Phi à Le Cun), mais chez OpenAI par exemple ils sont bien conscients de ce problème, et les premiers chiffres semblent indiquer que GPT-4 hallucine déjà moins que ses versions antérieures
De plus, même si c'était vrai, ça serait juste parce qu'on l'a construite avec un modèle bien précis (LLM) qui en effet ne cherche pas la justesse de la proposition, mais il suffirait de faire différemment et le problème sauterait
Dans les benchmarks de réflexion, on voit très clairement que l'IA a des capacités de raisonnement et s'améliore petit à petit, et ta réflexion sur le fait qu'elle aurait juste eu accès aux sets de questions dans ses données est débile, dans tous les papiers de benchmarks sérieux que j'ai vu ils y ont pensé hein et inventent de nouveaux problèmes à chaque fois
Enfin, Gemini arrive bientôt, et ça sera pas une LLM pure, je crois qu'on est pas prêt pour le génie d'Hassabis
AlphaFold par exemple, se soucie déjà de savoir si la réponse qu'il donne est vraie ou fausse
Ca me semble très faible comme critique
Oui ok les LLM qui essaient de prédire le next token s'en foutent de la justesse de celui-ci, mais on a déjà des modèles d'IA qui font pas ça
Le 23 août 2023 à 22:24:24 EcceCorvus a écrit :
Le 23 août 2023 à 22:19:50 :
Le 23 août 2023 à 22:13:57 :
Le 23 août 2023 à 22:09:24 :
Le 23 août 2023 à 22:03:39 GaryValentine a écrit :
> Le 23 août 2023 à 22:00:58 :
>> Le 23 août 2023 à 22:00:10 GaryValentine a écrit :
> >> Le 23 août 2023 à 21:58:43 :
> > >"La conscience est générée par un paquet de neurones."
> >
> > La pire, celle-ci. LA PIRE.
>
> Tu t'es intéressé à Jaegwon Kim ?
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Vaguement. En dehors de Chalmers, j’ai des références assez limitées concernant les philosophes de l’esprit contemporains. Mais on ne les a pas attendu pour saisir les failles fondamentales du physicalisme.
J'étais un peu pareil mais après avoir creusé et pas mal suivi les avancements en IA, je suis devenu plus humble
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Bien sûr que la plupart des physicalistes de l'esprit sont des demeurés, mais y'a des exceptions
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Jaegwon Kim n'est pas Paul Churchland, pour résumer
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Qu’est-ce qui t’amène à être “plus humble” ? T’as des articles ? Des bouquins ?
Pas d'article ou de livre en particulier, jusqu'à chaque fois j'ai vu les gens dire "ok l'IA peut faire X maintenant, mais Y est qualitativement différent, il faut de la créativité/etc.", au final l'IA a fini par y arriver
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png A chaque fois l'IA repousse ce dont on la pensait capable, et on minimise en disant qu'il lui manquera toujours ce petit truc magique
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Mais ça a progressé tellement vite ces dernières années, que j'attends de voir ce dont elle va être capable, je ne suis plus assez certain pour dire "ça, elle n'y arrivera jamais"
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Exemple tout con : déjà les gens croyaient pas qu'elle puisse maîtriser les échecs
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Puis quand ça s'est fait, on a rationalisé "ok mais c'est parce que c'est un ordinateur, aux échecs il suffit de calculer. Pour le Go par contre, on peut pas calculer tous les coups possibles donc il faut de la créativité"
Et l'IA a maîtrisé le Go
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png "Ok mais le Go y'a des règles objectives, l'IA pourra jamais maîtriser le langage. Il faudrait une compréhension profonde des mots, pas juste un calcul des règles syntaxiques"
Et l'IA a maîtrisé le langage
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png "Ok mais c'est juste un algorithme d'auto-complétion, elle pige pas vraiment ce qu'elle dit"
Et l'IA a commencé à pouvoir résoudre des problèmes de plus en plus complexes, et on s'est aperçus qu'elle avait bien généré un modèle du monde à partir de ses données textuelles
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png J'attends qu'une IA produise un chef-d'oeuvre de littérature ou cinématographique complet et cohérent. Les émotions, l'expérience et le vécu de l'auteur s'infusent dans ces oeuvres, ce qu'une IA non-sentiente qui se contente de régurgiter des données qu'elle a apprise de façon tabula rasa ne saurait retranscrire.
À voir si une IA hyperperformante arrive un jour à faire aussi bien qu'une IA hyperperformante + un génie. Je ne crois pas que ce jour arrivera, et je vois plutôt l'IA comme complémentaire à l'Homme (en le libérant notamment des tâches pénibles et répétitives : traitement de données, décodage de protéines en biologie, automatisation en lien avec la robotique, etc.).
Je comprends, on verra khey, en tout cas je pense qu'on est pas prêts
Le 23 août 2023 à 22:15:54 GusFricadelle a écrit :
Le 23 août 2023 à 22:09:24 :
Le 23 août 2023 à 22:03:39 GaryValentine a écrit :
Vaguement. En dehors de Chalmers, j’ai des références assez limitées concernant les philosophes de l’esprit contemporains. Mais on ne les a pas attendu pour saisir les failles fondamentales du physicalisme.
J'étais un peu pareil mais après avoir creusé et pas mal suivi les avancements en IA, je suis devenu plus humble
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Bien sûr que la plupart des physicalistes de l'esprit sont des demeurés, mais y'a des exceptions
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png Jaegwon Kim n'est pas Paul Churchland, pour résumer
https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png les progrès en IA ne disent RIEN de l'intelligence
ChatGPT est juste bon pour faire ce pourquoi elle a été programmé : imiter le langage de façon naturelle
Lui demande de raisonner, c'est comme cuire des crêpes avec un micro-onde : elle n'est structurellement pas faite pour ça
Cf mon topic :
https://www.jeuxvideo.com/forums/42-51-72216067-1-0-1-0-ayaa-chatgpt-se-fout-de-nos-gueules-depuis-le-debut-en-fait.htm
Sauf que c'est factuellement faux, on peut le voir dans tous les benchmarks de raisonnement, ChatGPT a des capacités de réflexion, et elles se sont améliorées avec chaque nouvelle version
La plupart des gens qui chient sur ChatGPT n'ont jamais utilisé GPT-4
Et Gemini arrive dans quelques mois, ça va être un bordel