FIN DE PARTIE pour CHATGPT : StableLM le remplace et c’est gratuit et open source

JokeOfRuquier
2023-04-20 14:33:47

En open source c'est pas une bonne nouvelle, les droitards vont pouvoir manipuler les connaissances de l'AI pour aller dans le sens de leur idéologie, ça sera leur outil de propagande

_QI_Negatif
2023-04-20 14:33:59

Le 20 avril 2023 à 14:32:57 :

Le 20 avril 2023 à 14:29:47 :

Le 20 avril 2023 à 14:23:55 :
c'est ça le lien pour le tester ? https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat

Dans ton lien c'est la version 7B, soit une version "basse qualité" incomparable avec ce dont l'OP parle

Parce que les autres modèles ne sont pas encore disponibles. https://github.com/Stability-AI/StableLM
Mais aucun ne tournera sur votre GPU en local.

J'ai déjà essayé de faire tourner un modèle 7B sur mon PC, ça crash au bout de quelques minutes donc en effet

TiChatQuiPue
2023-04-20 14:34:09

Le 20 avril 2023 à 14:33:10 ambiverti a écrit :
Premier bide
Chatgpt restera gravé comme la référence car ils ont été les premiers
C’est comme le bitcoin aucune autre crypto n’est parvenu à le dépasser

oui comme MySpace est resté la référencehttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

kjferuiofhc2
2023-04-20 14:34:54

Le 20 avril 2023 à 14:32:29 :
mais WTF :rire:https://image.noelshack.com/fichiers/2023/16/4/1681993939-wtf.jpg

je pense que tu l'as brisée cette ia de merde

anhedoniste
2023-04-20 14:35:07

C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre

TiChatQuiPue
2023-04-20 14:35:12

par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

YellowJackets
2023-04-20 14:35:23

Le 20 avril 2023 à 14:34:54 :

Le 20 avril 2023 à 14:32:29 :
mais WTF :rire:https://image.noelshack.com/fichiers/2023/16/4/1681993939-wtf.jpg

je pense que tu l'as brisée cette ia de merde

"les IA vont remplacer les Devs"https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

purplebelt
2023-04-20 14:35:27

Le 20 avril 2023 à 14:24:41 :

Le 20 avril 2023 à 14:23:40 purplebelt a écrit :

Le 20 avril 2023 à 14:22:08 :

Le 20 avril 2023 à 14:21:28 purplebelt a écrit :

Le 20 avril 2023 à 14:17:09 :
le modele de ChatGPT4 pèse plusieurs dizaines de téra octets tu m'expliques comment t'installes ça sur ton pc de prolo ?https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

Mais espèce d’ahuri personne à dit que l’objectif final c’était de le faire tourner sur un laptop
Ce qui change la donne c’est que les poids son public et que le fine tuning est ouvert au grand public.
Ça veut dire que demain pour quelques centaines d’euros, un étudiant en info peut fine tuner chat GPT en louant des cluster en quelques clics.
Ça veut dire, entre autres, que la prophétie selon laquelle les métiers automatisables sont menacés et désormais ACTÉE.

sans avoir le modele en local tu vas rien faire t'auras accès à que dalle, c'est completement USELESShttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

SAUF QUIL EST ACCESSIBLE EN LOCAL SOMBRE AHURI.
Tu loues un cluster pour 20e prêt à l’emploi de l’heure chez AWS et tu le télécharges

un cluster de plusieurs TB juste pour stocker le modele, on a pas encore parlé du coût du gpuhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png
bien ton gpt4 "local" à $500 la journée ?https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

Non 10e de l’heure c’est le prix de 10 A100, ce qu’il faut pour faire tourner chatgpt

Le prix du stockage c’est dérisoire hein.
Un SSD neuf de 1To c’est 50e
A la location c’est quelques centimes

UrekMazlno
2023-04-20 14:35:34

C'est eclatax si ca tournera jamais en local, on va tous etre en pls devant la première startup nous sortira une IA sympa :(

bloblomv38
2023-04-20 14:35:45

Le 20 avril 2023 à 14:33:25 :

Le 20 avril 2023 à 14:30:33 :

Le 20 avril 2023 à 14:27:18 :

Le 20 avril 2023 à 14:25:41 :
La plupart des modèles open source sont très médiocres.
C'est le cas pour tous les modèles NLP actuels, et ça se confirme sur la génération d'images avec SD comparé à midjourney.

Ca va vite level up selon les ressources disponible.
Puis suffit que ca leak une fois, et c'est fini.
L'avenir de l'IA c'est du local.

"L'avenir de l'IA c'est du local."

Chaine de rire. Sur une 3090/4090 tu fais déjà pas tourner des NLP à plus de 13 milliards de paramètres.
GPT-3 full c'est 175 milliards, je parle pas des autres modèles sortis depuis 2020.

Stable Diffusion a moins d'un milliard de paramètres à côté.

Vous vivez dans un rêve si vous croyez que des modèles comme ChatGPT ça tourne en local. Ca coûte une blinde absolue de faire tourner un service d'IA à cause des ressources demandées. C'est pour ça que quasiment aucun ne propose d'accès gratuit sans restrictions massives.

On pourrait imaginer un service publique de l'IA vu les retombés economiques, ces models Open Source seront toujours utileshttps://image.noelshack.com/fichiers/2017/39/3/1506524542-ruth-perplexev2.png

Le problème des modèles open source c'est les données d'entrainement assez médiocres, donc à nombre de paramètres égaux, ils sont généralement bien moins bons que des modèles propriétaire.
La sauce secrète d'OpenAI & co c'est notamment toutes les données volées pour entrainer leurs modèles, mais ça passera difficilement pour de l'open source :)

TiChatQuiPue
2023-04-20 14:35:46

Le 20 avril 2023 à 14:35:07 anhedoniste a écrit :
C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre

des centaines de milliards de datasethttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

TheLelouch5
2023-04-20 14:35:59

Le 20 avril 2023 à 14:33:47 :
En open source c'est pas une bonne nouvelle, les droitards vont pouvoir manipuler les connaissances de l'AI pour aller dans le sens de leur idéologie, ça sera leur outil de propagande

Btg ça existe déjà des bots qui génèrent de la propagande sur les réseaux sociaux, que ce soit a droite ou à gauche

_QI_Negatif
2023-04-20 14:36:02

Le 20 avril 2023 à 14:35:12 :
par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

Pas compris non plus. Je pensais que les images demandaient plus de ressources.

Mais sur Stable Diffusion, sur une simple Geforce GTX 1080 je peux faire ce que je veux.
Les IA texte, impossible de faire quoi que ce soit.

UrekMazlno
2023-04-20 14:36:49

Le 20 avril 2023 à 14:36:02 :

Le 20 avril 2023 à 14:35:12 :
par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

Pas compris non plus. Je pensais que les images demandaient plus de ressources.

Mais sur Stable Diffusion, sur une simple Geforce GTX 1080 je peux faire ce que je veux.
Les IA texte, impossible de faire quoi que ce soit.

D'après ce que je comprends (que dalle), c'est le nombre de paramètres, plus de paramètres = plus de puissance requise :(

TiChatQuiPue
2023-04-20 14:36:54

Le 20 avril 2023 à 14:36:02 _QI_Negatif a écrit :

Le 20 avril 2023 à 14:35:12 :
par contre pourquoi les chatbot demandent une telle puissance comparé à Stable Diffusion ? j'ai pas captaxhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

Pas compris non plus. Je pensais que les images demandaient plus de ressources.

Mais sur Stable Diffusion, sur une simple Geforce GTX 1080 je peux faire ce que je veux.
Les IA texte, impossible de faire quoi que ce soit.

bah les images si on réfléchit bien, c'est du raster, des pixels, donc une image 512x512 c'est "seulement" un tableau avec 262144 tokenshttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

purplebelt
2023-04-20 14:37:06

Le 20 avril 2023 à 14:35:07 :
C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre

Faut grosso modo un peu moins de 1To de VRAM pour ChatGPT Soit 10 A100
1 A100 c’est 1e de l’heure en gros

Toulldu
2023-04-20 14:37:26

Les golems not ready
Ça va être comme Stable Diffusion, ça va supplanter tout le reste car c'est gratuit et libre
Si ça le devient pas : monde de merde

anhedoniste
2023-04-20 14:37:47

Le 20 avril 2023 à 14:35:46 :

Le 20 avril 2023 à 14:35:07 anhedoniste a écrit :
C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre

des centaines de milliards de datasethttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

Mais ça c'est que pour l'entraînement du modèle non ?

UrekMazlno
2023-04-20 14:37:53

Faut grosso modo un peu moins de 1To de VRAM pour ChatGPT

https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

TiChatQuiPue
2023-04-20 14:38:13

Le 20 avril 2023 à 14:37:26 Toulldu a écrit :
Les golems not ready
Ça va être comme Stable Diffusion, ça va supplanter tout le reste car c'est gratuit et libre
Si ça le devient pas : monde de merde

sauf que l'infrastructure matérielle requise pour un gpt4 est absolument incomparable à celle requise pour faire du porn sur stable diffusion avec ta RTXhttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

Infos
Gestion du forum

contact@geevey.com

API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.

Notes

    Partenaire: JVFlux
    Ce site n'est pas associé à Jeuxvideo.com ou Webedia. Nous utilisons seulement des archives publiques.
    Il est inutile de me spammer par e-mail pour supprimer un topic. Au contraire, en conséquence, je mettrais votre topic dans le bloc ci-dessous.
Non-assumage
    Personne n'a pas assumé de topic pour le moment.