Verinot
2024-02-15 20:20:01
RÉSUMÉ : lis au moins les passages en gras et clique sur les liens, Google et OpenAI viennent de lâcher deux bombes dans le milieu de l'IAhttps://image.noelshack.com/fichiers/2017/48/6/1512231347-jesusalert.gif
CE QU'IL S'EST PASSÉ AUJOURD'HUI :
1 À peine quelques semaines après avoir sorti son modèle Gemini 1.0, Google vient d'annoncer Gemini 1.5 : https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/https://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
Pourquoi c'est énorme ? Parce que les ingés de Google semblent avoir basiquement résolu le problème de la mémoire dans les LLMhttps://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
Si vous êtes pas au courant, une grande limite aux IA actuelles c'est ce qu'on nomme leur "context windows", en gros leur mémoire, la taille maximale des données qu'elles peuvent traiter. C'est la raison pour laquelle ChatGPT ne se souvient pas de ce que vous lui avez dit entre deux conversationshttps://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
Les équipes d'IA ont inventé plein de techniques pour contourner le problème (RAG, vector database...) mais sans le résoudre totalement jusque-là. Pour vous donner une idée, actuellement GPT-4 (turbo, le modèle de l'API) peut gérer jusqu'à 128 000 tokens (1 token = 1 mot grosso merdo), et c'est tout sauf une mémoire parfaite. Si vous lui faites lire un livre de 100 000 mots, il aura du mal à se souvenir des mots au milieu et vers la finhttps://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
Gemini 1.5, le modèle que Google a annoncé aujourd'hui, peut traiter jusqu'à 1 million de tokens en production. C'est l'équivalent des septs livres d'Harry Potter, ou 22h de fichiers audio. En recherche, ils sont montés jusqu'à 10 millions de tokens. Et le tout avec une fiabilité de la mémoire quasiment parfaite (99.7% de fiabilité) :https://image.noelshack.com/fichiers/2024/07/4/1708023399-d0c496ad-06d1-4a78-9898-de1c381a1fae.pnghttps://image.noelshack.com/fichiers/2024/07/4/1708023405-f81437f2-8aea-4a09-aac6-fd96806a0d02.jpghttps://image.noelshack.com/fichiers/2017/48/6/1512231347-jesusalert.gif
Si ces benchmarks se confirment, Google vient de résoudre l'unes des grosses limites des IA actuelleshttps://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
2 déjà que Gemini 1.0 de Google mettait la pression à OpenAI parce que le modèle de Google égalait quasiment GPT-4 dans la plupart des benchmarks, quelques semaines après Google sort un modèle qui leur explose le cul en capacité de mémoire. Évidemment, OpenAI sont sous pression, et ça fait plaisir de voir qu'il y a enfin une vraie concurrence qui les pousse au cul. Sans parler de la pression que leur met Microsoft car c'est l'occasion où jamais de mettre toute la concu' dans le rétro ahi. OpenAI a commencé à entraîner GPT-5, mais ça sortira sûrement pas avant la fin de l'année (surtout que les constructeurs d'IA vont éviter de sortir des modèles autour de l'élection présidentielle US)https://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
Donc GPT-5 est pas prêt, mais là les moves de Google sont trop pressants, faut sortir quelque chose ! Surtout que, j'en parle pas là parce que le topic est déjà assez long, mais la remontada de Google est féroce : depuis le début de l'année Google fait PLEUVOIR les papiers qui font avancer la recherche en IAhttps://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
OpenAI vient donc de sortir, il y a littéralement une heure, et probablement en réponse à Google, un modèle d'IA génératrice de vidéos : https://openai.com/sora
Alors quand j'ai lu ça j'ai pensé "c'est tout ? Osef bordel ça existe déjà". Oui, ça existe déjà, mais tous les modèles actuels sont foireuxhttps://image.noelshack.com/fichiers/2021/51/7/1640519793-risitas-sd-1-golem.png
Regardez la qualité du truc bordel, matez les clips produits par leur IA. J'en remets quelques-uns ici, en vrac et non-exhaustifs, ceux qui m'ont bluffé :
BORDEL MAIS LA CONSISTANCE DES IMAGES, C'EST QUOI CETTE DINGUERIEhttps://image.noelshack.com/fichiers/2017/48/6/1512231347-jesusalert.gif
La qualité du truchttps://image.noelshack.com/fichiers/2017/48/6/1512231347-jesusalert.gifpour ceux qui ont déjà vu où en étaient les IA génératrices de vidéos jusque-là, c'est un bond de GÉANT. Ça me fait penser à cette déclaration : https://www.bloomberg.com/news/articles/2023-11-09/ai-will-cut-cost-of-animated-films-by-90-jeff-katzenberg-says mais ça va même toucher le cinéma et bien plus vite que prévu ahi. Pour rappel sur la vitesse des progrès :https://image.noelshack.com/fichiers/2024/07/4/1708024195-a53a47ec-293b-4a84-beb4-a160d1d5209b.jpghttps://image.noelshack.com/fichiers/2022/05/2/1643744229-ahi-pince.png
CE À QUOI ON PEUT S'ATTENDRE :
Les gros groupes vont éviter de sortir des modèles trop performants jusqu'à la fin des élections US pour éviter le shitstorm. Mais pendant ce temps, GPT-5 a commencé son entraînement et les papiers de recherche continuent de pleuvoir. Sérieux, y'a limite une avancée majeure par semaine en ce moment. Ça + des nouvelles architectures encore expérimentales qui se démocratisent et qui pourraient révolutionner le game (je pense à Mamba par exemple, qui a le potentiel pour éclipser les Transformers) on peut avoir une sensation de calme plat dans les mois à venir, mais tout le monde cuisine et je prédis que la fin d'année va être follehttps://image.noelshack.com/fichiers/2022/52/7/1641142315-ronaldo-lunettespng.png
PLUS DE FREINS DANS CE TRAIN !!!!https://image.noelshack.com/fichiers/2016/48/1480852423-1466366197-risitas10train2.jpg