FIN DE PARTIE pour CHATGPT : StableLM le remplace et c’est gratuit et open source
JokeOfRuquier
2023-04-20 14:33:47
En open source c'est pas une bonne nouvelle, les droitards vont pouvoir manipuler les connaissances de l'AI pour aller dans le sens de leur idéologie, ça sera leur outil de propagande
TiChatQuiPue
2023-04-20 14:34:09
Le 20 avril 2023 à 14:33:10 ambiverti a écrit :
Premier bide
Chatgpt restera gravé comme la référence car ils ont été les premiers
C’est comme le bitcoin aucune autre crypto n’est parvenu à le dépasser
oui comme MySpace est resté la référencehttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
kjferuiofhc2
2023-04-20 14:34:54
Le 20 avril 2023 à 14:32:29 :
mais WTF https://image.noelshack.com/fichiers/2023/16/4/1681993939-wtf.jpg
je pense que tu l'as brisée cette ia de merde
anhedoniste
2023-04-20 14:35:07
C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre
TiChatQuiPue
2023-04-20 14:35:12
par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
YellowJackets
2023-04-20 14:35:23
Le 20 avril 2023 à 14:34:54 :
Le 20 avril 2023 à 14:32:29 :
mais WTF https://image.noelshack.com/fichiers/2023/16/4/1681993939-wtf.jpg
je pense que tu l'as brisée cette ia de merde
"les IA vont remplacer les Devs"https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
purplebelt
2023-04-20 14:35:27
Le 20 avril 2023 à 14:24:41 :
Le 20 avril 2023 à 14:23:40 purplebelt a écrit :
Le 20 avril 2023 à 14:22:08 :
Le 20 avril 2023 à 14:21:28 purplebelt a écrit :
Le 20 avril 2023 à 14:17:09 :
le modele de ChatGPT4 pèse plusieurs dizaines de téra octets tu m'expliques comment t'installes ça sur ton pc de prolo ?https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
Mais espèce d’ahuri personne à dit que l’objectif final c’était de le faire tourner sur un laptop
Ce qui change la donne c’est que les poids son public et que le fine tuning est ouvert au grand public.
Ça veut dire que demain pour quelques centaines d’euros, un étudiant en info peut fine tuner chat GPT en louant des cluster en quelques clics.
Ça veut dire, entre autres, que la prophétie selon laquelle les métiers automatisables sont menacés et désormais ACTÉE.
sans avoir le modele en local tu vas rien faire t'auras accès à que dalle, c'est completement USELESShttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
SAUF QUIL EST ACCESSIBLE EN LOCAL SOMBRE AHURI.
Tu loues un cluster pour 20e prêt à l’emploi de l’heure chez AWS et tu le télécharges
un cluster de plusieurs TB juste pour stocker le modele, on a pas encore parlé du coût du gpuhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
bien ton gpt4 "local" à $500 la journée ?https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
Non 10e de l’heure c’est le prix de 10 A100, ce qu’il faut pour faire tourner chatgpt
Le prix du stockage c’est dérisoire hein.
Un SSD neuf de 1To c’est 50e
A la location c’est quelques centimes
UrekMazlno
2023-04-20 14:35:34
C'est eclatax si ca tournera jamais en local, on va tous etre en pls devant la première startup nous sortira une IA sympa
bloblomv38
2023-04-20 14:35:45
Le 20 avril 2023 à 14:33:25 :
Le 20 avril 2023 à 14:30:33 :
Le 20 avril 2023 à 14:27:18 :
Le 20 avril 2023 à 14:25:41 :
La plupart des modèles open source sont très médiocres.
C'est le cas pour tous les modèles NLP actuels, et ça se confirme sur la génération d'images avec SD comparé à midjourney.
Ca va vite level up selon les ressources disponible.
Puis suffit que ca leak une fois, et c'est fini.
L'avenir de l'IA c'est du local.
"L'avenir de l'IA c'est du local."
Chaine de rire. Sur une 3090/4090 tu fais déjà pas tourner des NLP à plus de 13 milliards de paramètres.
GPT-3 full c'est 175 milliards, je parle pas des autres modèles sortis depuis 2020.
Stable Diffusion a moins d'un milliard de paramètres à côté.
Vous vivez dans un rêve si vous croyez que des modèles comme ChatGPT ça tourne en local. Ca coûte une blinde absolue de faire tourner un service d'IA à cause des ressources demandées. C'est pour ça que quasiment aucun ne propose d'accès gratuit sans restrictions massives.
On pourrait imaginer un service publique de l'IA vu les retombés economiques, ces models Open Source seront toujours utileshttps://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png
Le problème des modèles open source c'est les données d'entrainement assez médiocres, donc à nombre de paramètres égaux, ils sont généralement bien moins bons que des modèles propriétaire.
La sauce secrète d'OpenAI & co c'est notamment toutes les données volées pour entrainer leurs modèles, mais ça passera difficilement pour de l'open source
TiChatQuiPue
2023-04-20 14:35:46
Le 20 avril 2023 à 14:35:07 anhedoniste a écrit :
C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre
des centaines de milliards de datasethttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
TheLelouch5
2023-04-20 14:35:59
Le 20 avril 2023 à 14:33:47 :
En open source c'est pas une bonne nouvelle, les droitards vont pouvoir manipuler les connaissances de l'AI pour aller dans le sens de leur idéologie, ça sera leur outil de propagande
Btg ça existe déjà des bots qui génèrent de la propagande sur les réseaux sociaux, que ce soit a droite ou à gauche
_QI_Negatif
2023-04-20 14:36:02
Le 20 avril 2023 à 14:35:12 :
par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
Pas compris non plus. Je pensais que les images demandaient plus de ressources.
Mais sur Stable Diffusion, sur une simple Geforce GTX 1080 je peux faire ce que je veux.
Les IA texte, impossible de faire quoi que ce soit.
UrekMazlno
2023-04-20 14:36:49
Le 20 avril 2023 à 14:36:02 :
Le 20 avril 2023 à 14:35:12 :
par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
Pas compris non plus. Je pensais que les images demandaient plus de ressources.
Mais sur Stable Diffusion, sur une simple Geforce GTX 1080 je peux faire ce que je veux.
Les IA texte, impossible de faire quoi que ce soit.
D'après ce que je comprends (que dalle), c'est le nombre de paramètres, plus de paramètres = plus de puissance requise
TiChatQuiPue
2023-04-20 14:36:54
Le 20 avril 2023 à 14:36:02 _QI_Negatif a écrit :
Le 20 avril 2023 à 14:35:12 :
par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
Pas compris non plus. Je pensais que les images demandaient plus de ressources.
Mais sur Stable Diffusion, sur une simple Geforce GTX 1080 je peux faire ce que je veux.
Les IA texte, impossible de faire quoi que ce soit.
bah les images si on réfléchit bien, c'est du raster, des pixels, donc une image 512x512 c'est "seulement" un tableau avec 262144 tokenshttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
purplebelt
2023-04-20 14:37:06
Le 20 avril 2023 à 14:35:07 :
C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre
Faut grosso modo un peu moins de 1To de VRAM pour ChatGPT Soit 10 A100
1 A100 c’est 1e de l’heure en gros
Toulldu
2023-04-20 14:37:26
Les golems not ready
Ça va être comme Stable Diffusion, ça va supplanter tout le reste car c'est gratuit et libre
Si ça le devient pas : monde de merde
anhedoniste
2023-04-20 14:37:47
Le 20 avril 2023 à 14:35:46 :
Le 20 avril 2023 à 14:35:07 anhedoniste a écrit :
C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre
des centaines de milliards de datasethttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
Mais ça c'est que pour l'entraînement du modèle non ?
UrekMazlno
2023-04-20 14:37:53
Faut grosso modo un peu moins de 1To de VRAM pour ChatGPT
https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png
TiChatQuiPue
2023-04-20 14:38:13
Le 20 avril 2023 à 14:37:26 Toulldu a écrit :
Les golems not ready
Ça va être comme Stable Diffusion, ça va supplanter tout le reste car c'est gratuit et libre
Si ça le devient pas : monde de merde
sauf que l'infrastructure matérielle requise pour un gpt4 est absolument incomparable à celle requise pour faire du porn sur stable diffusion avec ta RTXhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png