FIN DE PARTIE pour CHATGPT : StableLM le remplace et c’est gratuit et open source

TiChatQuiPue
2023-04-20 15:18:38

Stable Diffusion est open source et la qualité encule MidJourney si on sait s'en servir, ta reactcuck ?https://image.noelshack.com/fichiers/2023/16/3/1681889318-yatangaki-fond-reupload-le-bestreup-jesus-nez-se-sans-bouche-brup-pince-transparent-picassod.png

Incubatteur
2023-04-20 15:19:35

Le 20 avril 2023 à 15:16:17 :

Le 20 avril 2023 à 15:14:27 :

Le 20 avril 2023 à 15:07:22 :

Le 20 avril 2023 à 14:51:00 :

Le 20 avril 2023 à 14:48:45 :

> Le 20 avril 2023 à 14:44:12 :

>> Le 20 avril 2023 à 14:40:38 :

> >> Le 20 avril 2023 à 14:39:47 anhedoniste a écrit :

> > > > Le 20 avril 2023 à 14:38:39 :

> > > > > Le 20 avril 2023 à 14:37:47 anhedoniste a écrit :

> > > > > > Le 20 avril 2023 à 14:35:46 :

> > > > > > > Le 20 avril 2023 à 14:35:07 anhedoniste a écrit :

> > > > > > > C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre

> > > > > >

> > > > > > des centaines de milliards de datasethttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> > > > >

> > > > > Mais ça c'est que pour l'entraînement du modèle non ?

> > > >

> > > > ah parce que tu crois qu'une fois entrainé il garde tout en mémoire en mode compression 0 octet ?https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> > >

> > > Tu caches ton ignorance derrière des stickers :(

> > > Si tu connais pas la réponse non plus c'est pas grave :(

> >

> > quand tu fais tourner chatgpt t'as besoin que le modèle soit chargé, c'est à dire les dizaines de tera octets, et ça c'est juste le prérequis;, ensuite il faut la puissance de calcul pour utiliser le modelehttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

>

> Stp arrête de t’afficher tu comprends rien à rien

> Il faut 10 A100 pour avoir le modèle en VRAM et donc commencer un fine tuning, c’est relativement accessible

Payer 10 balles de l'heure pour poser des questions sur les J à une IA

Nous n'avons pas tous le même sens des prioritéshttps://image.noelshack.com/fichiers/2021/36/4/1631215379-angela-merkel-cheveux-akatsuki-fartatou-couleur.png

Il va te dire : oui mais pour les entreprises blablabla

Genre j'ai besoin de débourser 10€ de l'heure pour remplacer ChatGPT pour coder en python :)

Ben si une entreprise veut créer une IA pour assister / remplacer les notaires par exemple, j'imagine qu'ils pourront s'appuyer sur StableLM et le rentabiliser assez bien.

Aucune raison que les mastondotes de l'IA ne fasse pas la même en louant leurs modèles aux entreprises avec des certifs sur la confidentialité des données et sur la qualité des réponses, certifiée par des labels :(

C'est un modèle de dépendance qui plaira à des entrepreneurs et déplaira à d'autres.

Les projets open source comme StableLM peuvent aussi intéresser des gouvernements ou des projets collaboratifs.

Ce qui est sûr, c'est qu'il trouvera son public.

Comme la plupart des outils open sources en dehors des communautés sans thunes ou de niche, ce sera sous utilisé.

Surtout qu'en plus, sans GUI, devoir louer un serveur (cher), devoir finetuné (générer un dataset de qualité, tester différents entraînement, valider la qualité des sorties du modèle) sera a la porté de ... Presque personne.

joykimm
2023-04-20 15:20:30

Le 20 avril 2023 à 15:18:38 :
Stable Diffusion est open source et la qualité encule MidJourney si on sait s'en servir, ta reactcuck ?https://image.noelshack.com/fichiers/2023/16/3/1681889318-yatangaki-fond-reupload-le-bestreup-jesus-nez-se-sans-bouche-brup-pince-transparent-picassod.png

comment on apprend à s'en servir ? J'ai fait des trucs avec j'ai pas eu des résultats très convaincantshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Incubatteur
2023-04-20 15:21:24

Le 20 avril 2023 à 15:18:38 :
Stable Diffusion est open source et la qualité encule MidJourney si on sait s'en servir, ta reactcuck ?https://image.noelshack.com/fichiers/2023/16/3/1681889318-yatangaki-fond-reupload-le-bestreup-jesus-nez-se-sans-bouche-brup-pince-transparent-picassod.png

SD tourne sur n'importe quel PC et bénéficie d'un écosystèmes d'outils qui le rende compétitif face a MidJourney.

Les modèles en eux même sont pas meilleur que le modèle de MidJourney.

KujouAlisa
2023-04-20 15:21:58

Bordel comme tous les trucs open source c'est absolument inutilisable

DriftKing17
2023-04-20 15:22:11

Je lui ai posé une question la ça fait 5 mins qu'il reflechithttps://image.noelshack.com/fichiers/2017/07/1487382298-risitasdepressif.png

Incubatteur
2023-04-20 15:22:42

Le 20 avril 2023 à 15:20:30 :

Le 20 avril 2023 à 15:18:38 :
Stable Diffusion est open source et la qualité encule MidJourney si on sait s'en servir, ta reactcuck ?https://image.noelshack.com/fichiers/2023/16/3/1681889318-yatangaki-fond-reupload-le-bestreup-jesus-nez-se-sans-bouche-brup-pince-transparent-picassod.png

comment on apprend à s'en servir ? J'ai fait des trucs avec j'ai pas eu des résultats très convaincantshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Prendre des merges considerés comme un peu quali par la communauté, apprendre a faire des prompt.
Utiliser des LoRa et tout les outils qui donnent un meilleur contrôle sur la composition de l'image.

TiChatQuiPue
2023-04-20 15:22:42

Le 20 avril 2023 à 15:20:30 joykimm a écrit :

Le 20 avril 2023 à 15:18:38 :
Stable Diffusion est open source et la qualité encule MidJourney si on sait s'en servir, ta reactcuck ?https://image.noelshack.com/fichiers/2023/16/3/1681889318-yatangaki-fond-reupload-le-bestreup-jesus-nez-se-sans-bouche-brup-pince-transparent-picassod.png

comment on apprend à s'en servir ? J'ai fait des trucs avec j'ai pas eu des résultats très convaincantshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

bah apprendshttps://image.noelshack.com/fichiers/2023/16/3/1681889318-yatangaki-fond-reupload-le-bestreup-jesus-nez-se-sans-bouche-brup-pince-transparent-picassod.png

El_Gringo_
2023-04-20 15:26:45

https://image.noelshack.com/fichiers/2023/16/4/1681997186-capture-d-ecran-2023-04-20-152555.jpg

Bon allezhttps://image.noelshack.com/fichiers/2018/21/3/1527090059-liste-sujets.png

Hsljkhncklv
2023-04-20 15:27:52

Le 20 avril 2023 à 15:19:35 :

Le 20 avril 2023 à 15:16:17 :

Le 20 avril 2023 à 15:14:27 :

Le 20 avril 2023 à 15:07:22 :

Le 20 avril 2023 à 14:51:00 :

> Le 20 avril 2023 à 14:48:45 :

>> Le 20 avril 2023 à 14:44:12 :

> >> Le 20 avril 2023 à 14:40:38 :

> > >> Le 20 avril 2023 à 14:39:47 anhedoniste a écrit :

> > > > > Le 20 avril 2023 à 14:38:39 :

> > > > > > Le 20 avril 2023 à 14:37:47 anhedoniste a écrit :

> > > > > > > Le 20 avril 2023 à 14:35:46 :

> > > > > > > > Le 20 avril 2023 à 14:35:07 anhedoniste a écrit :

> > > > > > > > C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre

> > > > > > >

> > > > > > > des centaines de milliards de datasethttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> > > > > >

> > > > > > Mais ça c'est que pour l'entraînement du modèle non ?

> > > > >

> > > > > ah parce que tu crois qu'une fois entrainé il garde tout en mémoire en mode compression 0 octet ?https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> > > >

> > > > Tu caches ton ignorance derrière des stickers :(

> > > > Si tu connais pas la réponse non plus c'est pas grave :(

> > >

> > > quand tu fais tourner chatgpt t'as besoin que le modèle soit chargé, c'est à dire les dizaines de tera octets, et ça c'est juste le prérequis;, ensuite il faut la puissance de calcul pour utiliser le modelehttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> >

> > Stp arrête de t’afficher tu comprends rien à rien

> > Il faut 10 A100 pour avoir le modèle en VRAM et donc commencer un fine tuning, c’est relativement accessible

>

> Payer 10 balles de l'heure pour poser des questions sur les J à une IA

>

> Nous n'avons pas tous le même sens des prioritéshttps://image.noelshack.com/fichiers/2021/36/4/1631215379-angela-merkel-cheveux-akatsuki-fartatou-couleur.png

Il va te dire : oui mais pour les entreprises blablabla

Genre j'ai besoin de débourser 10€ de l'heure pour remplacer ChatGPT pour coder en python :)

Ben si une entreprise veut créer une IA pour assister / remplacer les notaires par exemple, j'imagine qu'ils pourront s'appuyer sur StableLM et le rentabiliser assez bien.

Aucune raison que les mastondotes de l'IA ne fasse pas la même en louant leurs modèles aux entreprises avec des certifs sur la confidentialité des données et sur la qualité des réponses, certifiée par des labels :(

C'est un modèle de dépendance qui plaira à des entrepreneurs et déplaira à d'autres.

Les projets open source comme StableLM peuvent aussi intéresser des gouvernements ou des projets collaboratifs.

Ce qui est sûr, c'est qu'il trouvera son public.

Comme la plupart des outils open sources en dehors des communautés sans thunes ou de niche, ce sera sous utilisé.

Faut voir, l'IA suscite un certain engouement international.

Surtout qu'en plus, sans GUI, devoir louer un serveur (cher), devoir finetuné (générer un dataset de qualité, tester différents entraînement, valider la qualité des sorties du modèle) sera a la porté de ... Presque personne.

Bah c'est pas nouveau que la conception d'IA est un domaine de niche de toutes façons. En vérité, je pensais surtout aux labos.

Mais ça donne une base comme le noyau Linux a été la base de projets libres ou propriétaires (Debian, Ubuntu, iOS, Android). Je pense pas que StableLM soit sans avenir, sauf si vraiment il est rincé.

Mais il ne s'adresse pas aux pelos de ce forum.

joykimm
2023-04-20 15:33:41

Le 20 avril 2023 à 15:22:42 :

Le 20 avril 2023 à 15:20:30 :

Le 20 avril 2023 à 15:18:38 :
Stable Diffusion est open source et la qualité encule MidJourney si on sait s'en servir, ta reactcuck ?https://image.noelshack.com/fichiers/2023/16/3/1681889318-yatangaki-fond-reupload-le-bestreup-jesus-nez-se-sans-bouche-brup-pince-transparent-picassod.png

comment on apprend à s'en servir ? J'ai fait des trucs avec j'ai pas eu des résultats très convaincantshttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Prendre des merges considerés comme un peu quali par la communauté, apprendre a faire des prompt.
Utiliser des LoRa et tout les outils qui donnent un meilleur contrôle sur la composition de l'image.

merci kheyouhttps://image.noelshack.com/fichiers/2022/37/1/1663014384-ahi-pince-mais.png

Incubatteur
2023-04-20 15:34:34

Le 20 avril 2023 à 15:27:52 :

Le 20 avril 2023 à 15:19:35 :

Le 20 avril 2023 à 15:16:17 :

Le 20 avril 2023 à 15:14:27 :

Le 20 avril 2023 à 15:07:22 :

> Le 20 avril 2023 à 14:51:00 :

>> Le 20 avril 2023 à 14:48:45 :

> >> Le 20 avril 2023 à 14:44:12 :

> > >> Le 20 avril 2023 à 14:40:38 :

> > > >> Le 20 avril 2023 à 14:39:47 anhedoniste a écrit :

> > > > > > Le 20 avril 2023 à 14:38:39 :

> > > > > > > Le 20 avril 2023 à 14:37:47 anhedoniste a écrit :

> > > > > > > > Le 20 avril 2023 à 14:35:46 :

> > > > > > > > > Le 20 avril 2023 à 14:35:07 anhedoniste a écrit :

> > > > > > > > > C'est quoi l'infrastructure derrière chat-gpt ? Parlez pas chinois par contre

> > > > > > > >

> > > > > > > > des centaines de milliards de datasethttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> > > > > > >

> > > > > > > Mais ça c'est que pour l'entraînement du modèle non ?

> > > > > >

> > > > > > ah parce que tu crois qu'une fois entrainé il garde tout en mémoire en mode compression 0 octet ?https://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> > > > >

> > > > > Tu caches ton ignorance derrière des stickers :(

> > > > > Si tu connais pas la réponse non plus c'est pas grave :(

> > > >

> > > > quand tu fais tourner chatgpt t'as besoin que le modèle soit chargé, c'est à dire les dizaines de tera octets, et ça c'est juste le prérequis;, ensuite il faut la puissance de calcul pour utiliser le modelehttps://image.noelshack.com/fichiers/2021/47/4/1637873468-chaud.png

> > >

> > > Stp arrête de t’afficher tu comprends rien à rien

> > > Il faut 10 A100 pour avoir le modèle en VRAM et donc commencer un fine tuning, c’est relativement accessible

> >

> > Payer 10 balles de l'heure pour poser des questions sur les J à une IA

> >

> > Nous n'avons pas tous le même sens des prioritéshttps://image.noelshack.com/fichiers/2021/36/4/1631215379-angela-merkel-cheveux-akatsuki-fartatou-couleur.png

>

> Il va te dire : oui mais pour les entreprises blablabla

>

> Genre j'ai besoin de débourser 10€ de l'heure pour remplacer ChatGPT pour coder en python :)

Ben si une entreprise veut créer une IA pour assister / remplacer les notaires par exemple, j'imagine qu'ils pourront s'appuyer sur StableLM et le rentabiliser assez bien.

Aucune raison que les mastondotes de l'IA ne fasse pas la même en louant leurs modèles aux entreprises avec des certifs sur la confidentialité des données et sur la qualité des réponses, certifiée par des labels :(

C'est un modèle de dépendance qui plaira à des entrepreneurs et déplaira à d'autres.

Les projets open source comme StableLM peuvent aussi intéresser des gouvernements ou des projets collaboratifs.

Ce qui est sûr, c'est qu'il trouvera son public.

Comme la plupart des outils open sources en dehors des communautés sans thunes ou de niche, ce sera sous utilisé.

Faut voir, l'IA suscite un certain engouement international.

Surtout qu'en plus, sans GUI, devoir louer un serveur (cher), devoir finetuné (générer un dataset de qualité, tester différents entraînement, valider la qualité des sorties du modèle) sera a la porté de ... Presque personne.

Bah c'est pas nouveau que la conception d'IA est un domaine de niche de toutes façons. En vérité, je pensais surtout aux labos.

Mais ça donne une base comme le noyau Linux a été la base de projets libres ou propriétaires (Debian, Ubuntu, iOS, Android). Je pense pas que StableLM soit sans avenir, sauf si vraiment il est rincé.

Mais il ne s'adresse pas aux pelos de ce forum.

Enfin, il y en a ici qui prétend que ça va remplacer des travailleurs de profession réglementée, juste en finetunant un modèle.

Et c'est totalement irréaliste.

Cisla-est-mort
2023-04-20 15:35:18

Le 20 avril 2023 à 15:21:58 :
Bordel comme tous les trucs open source c'est absolument inutilisable

iblis_
2023-04-20 15:36:26

je comprends rien

Cancelplayer
2023-04-20 15:37:44

Fin de partie pour chatgpt :rire:

Suplube
2023-04-20 15:40:35

La question n'est pas de savoir si ça sera utile ou non, puisque c'est évident que ça le sera (sauf si vraiment éclaté par rapport à la concurrence), mais plutôt "Qui va l'utiliser ?"https://image.noelshack.com/fichiers/2017/09/1488387951-zemmour-lol.png

Le modèle le plus puissant sera bien trop énergivore et compliqué à mettre en place pour être utilisé par un lambda ou une petite entreprise
D'autant que pour le lambda l'intérêt est limité, GPT-4 est surement bien plus performant et ce qui arrive bientôt augmenteras encore cet écarthttps://image.noelshack.com/fichiers/2017/12/1490497882-zemmourrire.png

StableDiffusion c'est pareil, il faut une CG qui soit un minimum performante ... si tu as moins de 6Go de VRAM son utilisation reste assez limité

1M95MAISPUCEAU
2023-04-22 04:16:24

[15:35:18] <Cisla-est-mort>

Le 20 avril 2023 à 15:21:58 :
Bordel comme tous les trucs open source c'est absolument inutilisable

N'importe quoi le low

TintinVampire
2023-04-22 08:07:11

C'est super naze ce truc open-source

DZdeter-_
2023-04-22 18:19:36

Le 20 avril 2023 à 15:40:35 :
La question n'est pas de savoir si ça sera utile ou non, puisque c'est évident que ça le sera (sauf si vraiment éclaté par rapport à la concurrence), mais plutôt "Qui va l'utiliser ?"https://image.noelshack.com/fichiers/2017/09/1488387951-zemmour-lol.png

Le modèle le plus puissant sera bien trop énergivore et compliqué à mettre en place pour être utilisé par un lambda ou une petite entreprise
D'autant que pour le lambda l'intérêt est limité, GPT-4 est surement bien plus performant et ce qui arrive bientôt augmenteras encore cet écarthttps://image.noelshack.com/fichiers/2017/12/1490497882-zemmourrire.png

StableDiffusion c'est pareil, il faut une CG qui soit un minimum performante ... si tu as moins de 6Go de VRAM son utilisation reste assez limité

ça coûte un centime la requête de chatgpt khey :rire:

SemeLaZizanie
2023-04-22 18:21:12

C'est nul je retourne sur chat gpt

Infos
Gestion du forum

contact@geevey.com

API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.

Notes

    Partenaire: JVFlux
    Ce site n'est pas associé à Jeuxvideo.com ou Webedia. Nous utilisons seulement des archives publiques.
    Il est inutile de me spammer par e-mail pour supprimer un topic. Au contraire, en conséquence, je mettrais votre topic dans le bloc ci-dessous.
Non-assumage
    Personne n'a pas assumé de topic pour le moment.