La meilleure IA conversationnelle ? CHATGPT, CLAUDE, BARD...
B2zobe
2024-01-17 21:10:37
Personnellement je cumule les abos Perplexity + Chatgpt + claude et ça fait cher.
Je souhaite garder un seul abonnement. Mais j'ai l'impression que tous ont des avantages et inconvénients par rapport à d'autres.
Exemple : Claude 2, le meilleur pour rédiger (beaucoup de livres IA sont écrits avec), et pour analyser des documents
ChatGPT niquel pour tout le reste
Bard hallucine énormément
Perplexity un cas à part, je le trouve super rapide en tant qu'assistant perso pour répondre à des questions de tous les jours
Et Copilot à l'air pas mal, mais pas possible d'upload des documents pour les analyser...
Votre avis les kheys ?
B2zobe
2024-01-17 21:14:38
Le 17 janvier 2024 à 21:11:43 :
Tu parles de quoi avec eux ?
soit pour m'aider à créer des articles de blog orientés SEO
soit pour demander conseils juridiques principalement
et de la questions de la vie de tous les jours (ex : "est ce vin est bien pour tel plat" - en envoyant une photo d'une bouteille de vin)
Kheyduhelm
2024-01-17 21:15:30
Mistral ai dans pas longtemps sinon chatgpt actuellement
B2zobe
2024-01-17 21:16:07
Autre exemple, analyser des bilans médicaux en les vulgarisant
Umiti7845
2024-01-17 21:16:21
Mistral Medium via API
_Isidore
2024-01-17 21:17:13
Yen a qui ont essayé d'installer des LLM sur leur machine en local?
Visiblement c'est jouable sur une machine avec 64Go de Ram. Ce n'est pas au niveau de gpt 4, mais tiens la dragée a gpt 3.5 apparemment
B2zobe
2024-01-17 21:19:25
Le 17 janvier 2024 à 21:16:21 :
Mistral Medium via API
avantages de cette IA par rapport à celles citées ?
GommeBlanc
2024-01-17 21:19:55
Le 17 janvier 2024 à 21:16:21 :
Mistral Medium via API
this mais pas encore sorti non ?
B2zobe
2024-01-17 21:21:18
Le 17 janvier 2024 à 21:19:25 :
Le 17 janvier 2024 à 21:16:21 :
Mistral Medium via API
avantages de cette IA par rapport à celles citées ?
Je vais la tester sur ce lien : https://labs.perplexity.ai/
Umiti7845
2024-01-17 21:21:43
Le 17 janvier 2024 à 21:19:55 :
Le 17 janvier 2024 à 21:16:21 :
Mistral Medium via API
this mais pas encore sorti non ?
si tu peux demander via liste d'attente, moi j'y ai accès et c'est bien moins cher que GPT4 pour mieux pour mon usage
B2zobe
2024-01-17 21:24:09
Le 17 janvier 2024 à 21:21:43 :
Le 17 janvier 2024 à 21:19:55 :
Le 17 janvier 2024 à 21:16:21 :
Mistral Medium via API
this mais pas encore sorti non ?
si tu peux demander via liste d'attente, moi j'y ai accès et c'est bien moins cher que GPT4 pour mieux pour mon usage
C'et quoi la diff si je l'utilise sur ce lien ?
https://labs.perplexity.ai/
Umiti7845
2024-01-17 21:25:41
Le 17 janvier 2024 à 21:24:09 :
Le 17 janvier 2024 à 21:21:43 :
Le 17 janvier 2024 à 21:19:55 :
Le 17 janvier 2024 à 21:16:21 :
Mistral Medium via API
this mais pas encore sorti non ?
si tu peux demander via liste d'attente, moi j'y ai accès et c'est bien moins cher que GPT4 pour mieux pour mon usage
C'et quoi la diff si je l'utilise sur ce lien ?
https://labs.perplexity.ai/
c'est plus rapide et j'imagine que t'es bridé au bout d'un moment via ce site ?
B2zobe
2024-01-17 21:28:31
Le 17 janvier 2024 à 21:25:41 :
Le 17 janvier 2024 à 21:24:09 :
Le 17 janvier 2024 à 21:21:43 :
Le 17 janvier 2024 à 21:19:55 :
Le 17 janvier 2024 à 21:16:21 :
Mistral Medium via API
this mais pas encore sorti non ?
si tu peux demander via liste d'attente, moi j'y ai accès et c'est bien moins cher que GPT4 pour mieux pour mon usage
C'et quoi la diff si je l'utilise sur ce lien ?
https://labs.perplexity.ai/
c'est plus rapide et j'imagine que t'es bridé au bout d'un moment via ce site ?
Non même pas c'est leur "lab" où tu peux tester plein de LLM censées être libres ou plutôt opensource de façon illimitée
crottequantique
2024-01-17 21:29:45
Le 17 janvier 2024 à 21:17:13 :
Yen a qui ont essayé d'installer des LLM sur leur machine en local?
Visiblement c'est jouable sur une machine avec 64Go de Ram. Ce n'est pas au niveau de gpt 4, mais tiens la dragée a gpt 3.5 apparemment
des modèles à 7B type Mistral 8x7 rivalise avec des modèles à 44B et t'as pas besoin des 64Go de RAMhttps://image.noelshack.com/fichiers/2017/14/1491307287-79198.png