[IA] Intelligence HUMAINE AVANT 2030 - ykk !

Farlovk
2023-09-24 10:59:43

Je traduis des passages de ce magnifique article à la pointe du domainehttps://www.secondbest.ca/p/why-agi-is-closer-than-you-thinkpour tenter d'expliquer aux PNJ pourquoi PERSONNE N'EST READY pour ce qui arrivehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

:d) IA DE NIVEAU HUMAIN AVANT 2030https://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg:g)

Comme d'habitude, la masse ne juge qu'en regardant où on en est à l'instant T ("mdr chatgpt il é kon"sans oublier le fait que la plupart des gens parlent de GPT-3.5 quand ils disent ça, soit un modèle qui est déjà vieux de 3 ans. Peu ont testé GPT-4, et encore moins ce qu'il y a actuellement dans les tuyaux), au lieu de prendre aussi en compte où on était il y a 5-10 ans pour percevoir la tendance sur laquelle nous sommes engagés, vers où on se dirige et ce qui va très bientôt advenir à ce rythmehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Perso je pense que c'est pour 2027 et que les gens ne réalisent pas ce qui est en train de se jouerhttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Extraits choisis :

Ce billet explique pourquoi je prédis l'émergence de l'intelligence artificielle générale (AGI) dans des délais courts et pourquoi vous devriez en faire autant.

Les points suivants sont développés ci-dessous avec de nombreuses citations et des liens pour une lecture plus approfondie. Je n'essaierai pas de vous épater avec des références spécifiques à l'IA, comme la découverte que GPT-3.5 a spontanément appris à jouer aux échecs au-dessus de la moyennehttps://twitter.com/GrantSlatton/status/1703913578036904431, ni de vous donner une feuille de route spécifique pour la construction de l'AGI. Mon objectif est plutôt d'expliquer pourquoi vous devriez avoir de fortes présomptions que l'AGI est proche, indépendamment de la connaissance des détails du chemin à l'avance.

En résumé, les points importants :

  • Quelle que soit la définition que l'on donne à l'AGI, nous sommes sur la voie d'une IA qui atteindra le niveau humain par force brute en émulant simplement le générateur des données générées par l'homme, c'est-à-dire son cerveau.
  • La théorie de l'information, combinée aux prévisions d'efficacité algorithmique et matérielle, suggère que des systèmes capables d'émuler les humains pour la plupart des tâches sont plausibles au cours de cette décennie et probables d'ici 15 ans.
  • Le cerveau est une preuve existante que l'intelligence générale peut émerger par le biais d'un processus d'optimisation aveugle de type "hill-climbing" (évolution darwinienne), tandis que les preuves que le cerveau fonctionne sur les mêmes principes que le deep learning sont accablantes.
  • L'échelle (la taille des modèles) est le principal obstacle à l'AGI, et non la nécessité d'architectures radicalement nouvelles. Les cerveaux humains ne sont que des cerveaux de chimpanzés plus grands qui ont atteint la généralité en augmentant l'échelle du néocortex.
  • Les réseaux neuronaux artificiels peuvent simuler avec précision les neurones corticaux et d'autres réseaux cérébraux, alors que les preuves de l'importance du substrat biologique du cerveau à d'autres égards sont soit faibles, soit inexistantes, et rien que les modèles plus grands ne peuvent de toute façon compenser.
  • Le cerveau humain doit fonctionner selon des principes relativement simples, car il résulte d'un processus de développement avec des conditions initiales sensibles plutôt que d'être entièrement spécifié dans notre ADN(Le génome haploïde de l'homme se compose de 2,9 milliards de paires de bases qui codent un maximum de 725 mégaoctets de données. Sur ce total, à peine 8 % de notre ADN est réellement fonctionnel, tandis que seuls 20 000 gènes sont responsables de l'ensemble du codage des protéines. Le génome est donc un modèle absurdement épars de l'organisme qu'il sert à construire. Pour décompresser notre code génétique, il faut réguler un alphabet de protéines dans les cellules de base, ce qui déclenche une cascade de boucles de rétroaction bioélectriques https://link.springer.com/article/10.1007/s10071-023-01780-3 qui donnent naissance à des hiérarchies imbriquées de formes de structures à plus grande échelle. Chaque étape de ce processus ressemble à une version de la descente de gradient, comme si les mutations génétiques modifiaient une "fonction de récompense" de haute dimension - un attracteur cybernétique https://en.wikipedia.org/wiki/Self-organization_in_cybernetics - qui oriente ensuite notre développement embryonnaire https://www.frontiersin.org/articles/10.3389/fcell.2023.1087650/full vers un phénotype correspondant à l'état d'énergie le plus bas.).
  • "L'universalité", ou l'observation que les réseaux neuronaux artificiels et notre cerveau apprennent, indépendamment les uns des autres, des circuits logico-symboliques similaires, est une preuve solide que les méthodes actuelles de deep learning sont suffisantes pour modéliser la cognition humaine, même si elles sont sous-optimales.
  • Nous avons tendance à surestimer l'intelligence humaine car, en tant qu'êtres humains, nous sommes computationnellement bornés à la modélisation et prédiction d'autres êtres humains.
  • Le nombre d'"étapes difficiles" franchies sur Terre pour parvenir à une vie intelligente suggère que ces étapes ne sont pas aussi difficiles qu'elles en ont l'air, mais qu'elles sont plutôt guidées par des processus statistiques qui reflètent les lois d'échelonnement et les transitions de phase observées dans les réseaux neuronaux et d'autres systèmes physiques. L'AGI n'est pas non plus aussi difficile qu'il n'y paraît.

:d) L'AGI en tant qu'émulateur humain

L'AGI (intelligence artificielle générale) est considérée comme délicate à définir, car des concepts tels que la "généralité" et l'"intelligence de niveau humain" ouvrent des débats philosophiques sans fin. C'est pourquoi beaucoup préfèrent le concept apparenté d'IA Transformatrice, une définition opérationnelle qui ignore les propriétés intrinsèques d'un système d'IA au profit de son impact externe sur l'économie. Un système d'IA capable d'automatiser la majeure partie du travail cognitif humain serait donc considéré comme de l'IAT, même s'il était basé sur quelque chose d'aussi "bête" qu'une table de recherche géante. Cette situation est toutefois quelque peu insatisfaisante, car ce qui rend les progrès récents de l'IA si passionnants, c'est précisément "l'étincelle d'intelligence générale"https://arxiv.org/abs/2303.12712observée dans des modèles tels que le GPT-4.

Heureusement, les définitions de la TAI et de l'AGI convergent avec les systèmes d'IA formés pour émuler directement la cognition humaine, car un émulateur humain efficace serait à la fois transformateur sur le plan économique et manifestement "de niveau humain" dans sa généralité, même si ses mécanismes exacts restent opaques. Les grands modèles de langage (LLM) constituent un pas dans cette direction, car il existe de bonnes raisons théoriques de penser qu'un modèle suffisamment grand pour la prédiction du mot suivant, formé sur un texte généré par l'homme, apprendra des représentations sémantiques qui convergeront vers les représentations utilisées par l'homme.

Bien qu'il puisse exister un algorithme simple pour l'intelligence générale, l'abondance des données générées par l'homme et la croissance exponentielle de l'informatique rendent l'émulation humaine par une IA générale via brute force la voie la plus probable, et certainement celle pour laquelle l'industrie technologique est optimisée. Il pourrait même s'avérer que l'"intelligence générale" nécessite des modèles d'une grande complexité, car on sait que les réseaux neuronaux tirent leur capacité de généralisation et d'extrapolation de l'apprentissage sur des données comportant un grand nombre de dimensionshttps://arxiv.org/abs/2110.09485.

L'augmentation actuelle des ressources informatiques est vraiment incroyable. Le marché mondial de l'informatique en cloud devrait doublerhttps://www.cloudzero.com/blog/cloud-computing-market-sizeau cours des quatre prochaines années. Le marché des GPU (cartes graphiques) croît à un taux annuel composé de 32,7 %https://www.mordorintelligence.com/industry-reports/graphics-processing-unit-marketen raison de la demande d'accélérateurs d'IA. À mesure que les goulets d'étranglement de la chaîne d'approvisionnement se résorbent, NVIDIA prévoit à elle seule de livrer quatre fois plus de H100https://www.nvidia.com/fr-fr/data-center/dgx-h100/l'année prochaine qu'elle n'en livrera en 2023https://www.benzinga.com/news/23/08/33998198/nvidia-said-to-be-tripling-production-of-worlds-hottest-ai-chip-for-2024-but-will-supply-chain-snags. Pendant ce temps, le calcul utilisé pour entraîner les modèles de deep learning les plus importants augmente de 4,2 fois par anhttps://epochai.org/trends#compute-trends-section. À ce rythme, le deep learning consommera bientôt toute la puissance de calcul du monde. Heureusement, les progrès algorithmiques permettent de doubler les budgets de calcul effectifs environ tous les neuf moishttps://arxiv.org/pdf/2212.05153.pdf.

La question "quand développerons-nous l'AGI" peut donc être remplacée par la question "quand disposerons-nous de la puissance de calcul nécessaire pour émuler fidèlement les performances humaines dans les tâches qui requièrent une intelligence véritablement générale". Cette approche de la définition de l'AGI ravive l'idée centrale du test de Turing original, qui jugeait une IA intelligente dans la mesure où les humains ne parvenaient pas à la distinguer d'autres humains dans une série de conversations en double aveugle. Bien que les LLM aient déjà dépassé des versions plus faibles du test de Turing, le critère d'indiscernabilité reste profondément utile, en particulier lorsqu'il est formalisé mathématiquement.

:d) Du point de vue de la théorie de l'information

En théorie de l'information, minimiser la possibilité de distinguer deux distributions équivaut à minimiser la "perte d'entropie croisée". L'entropie croisée est le nombre moyen de bits nécessaires pour distinguer deux flux de données. Minimiser la perte d'entropie croisée revient donc à augmenter le nombre de bits nécessaires pour distinguer deux distributions. C'est l'essence même de la formation des modèles de machine learning. Dans un rapport pour EpochAI, Matthew Barnett et Tamay Besiroglu utilisent ce fait pour construire le modèle prédictif d'Approche Directehttps://epochai.org/blog/the-direct-approach, qui est peut-être notre meilleure prévision en théorie de l'information sur le moment où un modèle d'IA sera, en principe, capable d'émuler les performances humaines sur de longues séquences de tâches.

Le modèle d'Approche Directe combine les lois d'échelle de l'IAhttps://arxiv.org/abs/2210.14891- le fait empirique que les performances des modèles augmentent comme une loi de puissance lisse avec plus de données, de paramètres et de calcul de formationhttps://image.noelshack.com/fichiers/2023/38/7/1695544393-181b8ba4-dd2c-4364-b2be-feb1ac5a6322.png- avec les tendances prévues dans les entrées de formation, telles que la disponibilité des ressources informatiques et les améliorations de l'efficacité du matériel et des algorithmes. Avec une estimation du nombre moyen de jetons dont un humain aurait besoin pour distinguer une performance humaine de celle d'une machine, le modèle donne une limite supérieure au calcul de formation nécessaire pour automatiser une tâche au niveau humain. Il s'agit d'une limite supérieure car, comme l'expliquent les auteurs,

[À un certain moment, le modèle peut être formé plus efficacement en recevant directement des signaux de récompense sur sa performance dans la tâche. Cela s'apparente à la façon dont un être humain apprenant à jouer au tennis peut, dans un premier temps, essayer d'imiter les compétences des bons joueurs de tennis, mais, par la suite, développer sa propre technique en observant ce qui fonctionne et ce qui ne fonctionne pas pour remporter les matchs.

Comparé à la tâche consistant à produire un manuscrit scientifique original impossible à distinguer d'un manuscrit écrit par un expert humain, le modèle de base de l'Approche Directehttps://epochai.org/blog/direct-approach-interactive-modelsuggère que la formation d'une IA transformatrice nécessitera de l'ordre de 10^32 FLOP, avec une prévision médiane de TAI d'ici à 2036 au plus tard et une prévision modale de 2029. Cette prévision est conforme à celle de Metacalus, qui prévoit une "IA forte" d'ici à 2030https://www.metaculus.com/questions/5121/date-of-artificial-general-intelligence/.

https://image.noelshack.com/fichiers/2023/38/7/1695544616-3f1bad9f-843c-47e5-a944-174b71c1c64a.jpg

Ce que j'aime dans l'approche directe, c'est qu'elle est... directe. Si l'on admet que le cerveau est un système physique doté d'une certaine capacité de calcul, des ordinateurs suffisamment puissants dotés de réseaux neuronaux suffisamment efficaces en termes d'échantillonnage devraient être finalement en mesure d'extraire toute l'entropie pertinente des données générées par l'homme et de s'approcher asymptotiquement d'un émulateur humain idéal. Le modèle donne ainsi une idée du délai dans lequel nous pourrons "forcer brutalement" un émulateur humain, compte tenu de ce que nous savons de la mise à l'échelle des modèles et des lois de la thermodynamique.

Les réseaux neuronaux sont des "approximateurs de fonctionshttps://fr.m.wikipedia.org/wiki/Approximation_de_fonctionuniversels"https://arxiv.org/abs/1912.10077, ce qui signifie qu'ils peuvent approximer des fonctions continues arbitraires sur un ensemble compact. Et au cas où vous ne le sauriez pas, "tout est une fonction !"https://twitter.com/KwekuOA/status/1588010592098557952- y compris le cerveau. Pourtant, cette propriété ne garantit que l'existence d'un réseau neuronal permettant d'émuler le cerveau, et non l'efficacité de son apprentissage. Le modèle d'Approche Directe contribue à combler cette lacune en montrant que l'approximation fonctionnelle de l'intelligence humaine n'est pas seulement possible en théorie, mais qu'elle devrait être réalisable dans les 10 à 15 prochaines années.

Bien qu'il y ait beaucoup d'incertitudes et de possibilités de contestation, il s'agit d'une estimation fondamentalement conservatrice, car notre connaissance croissante du cerveau humain et de l'interprétabilité des réseaux neuronaux signifie que nous pouvons faire mieux que la force brute. Qu'il s'agisse de l'utilisation de formes intermédiaires d'IA pour accélérer la recherchehttps://openai.com/blog/introducing-superalignmentou de la découverte d'astuceshttps://arxiv.org/abs/2206.14486permettant d'améliorer le comportement des échelles, il faut s'attendre à de nombreuses surprises à la hausse.

Farlovk
2023-09-24 11:00:07

https://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Ayacucho
2023-09-24 11:00:37

Source: closer. Topic clos :ok:

ChefProprio
2023-09-24 11:00:56

https://image.noelshack.com/fichiers/2016/41/1476642572-picsart-10-16-08-25-48.png

Javouemaisbon
2023-09-24 11:02:05

C'est toi qui a rédigé le topic ou t'as demandé a chat GPT du coup ?

Farlovk
2023-09-24 11:02:11

Le 24 septembre 2023 à 11:00:37 :
Source: closer. Topic clos :ok:

Source : notre meilleur modèle prédictif à l'heure actuelle basé sur le constat empirique des scaling lawshttps://image.noelshack.com/fichiers/2023/38/7/1695544393-181b8ba4-dd2c-4364-b2be-feb1ac5a6322.pnget la théorie de l'informationhttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Viviciii
2023-09-24 11:03:27

Je pense que personne n'imagine encore ce qui arrive c'est le plus grand bouleversements du millénaire

Cipamoilimichon
2023-09-24 11:04:41

Pas envie de lire.

Farlovk
2023-09-24 11:06:25

Le 24 septembre 2023 à 11:03:27 :
Je pense que personne n'imagine encore ce qui arrive c'est le plus grand bouleversements du millénaire

Clairementhttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

C'est la découverte technologique ultime qui permettra toutes les autres à une vitesse inimaginablehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

lambda_lambda
2023-09-24 11:07:06

Le 24 septembre 2023 à 11:03:27 :
Je pense que personne n'imagine encore ce qui arrive c'est le plus grand bouleversements du millénaire

Nos anciens ont déjà été mis en PLS très vite par l'informatiquehttps://image.noelshack.com/fichiers/2021/18/1/1620010244-ae381887-22cf-421f-9f44-803754a1aa92.png

Plusmalinquetoi
2023-09-24 11:08:47

Palu en dépit d'ent

KheyfrenLeSage
2023-09-24 11:09:58

palu mais oui on le sait tous.
Les progrès exponentiels de L'IA sont affolant et innarétable.
Chaque mois les avancées sont complétement folles.

Alors en 2030 on sera dans un autre monde.

la révolution IA sera bien plus grande que l'arrivée d'internet.
new world incoming

Farlovk
2023-09-24 11:09:59

Le 24 septembre 2023 à 11:08:47 :
Palu en dépit d'ent

Naturellehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Farlovk
2023-09-24 11:12:21

Le 24 septembre 2023 à 11:09:58 :
palu mais oui on le sait tous.
Les progrès exponentiels de L'IA sont affolant et innarétable.
Chaque mois les avancées sont complétement folles.

Alors en 2030 on sera dans un autre monde.

la révolution IA sera bien plus grande que l'arrivée d'internet.
new world incoming

Quand tu vois qu'aux USA ça parle déjà de freiner la recherche en IA et de créer un protocole de sécurité autour d'elle à l'image de ce qui existe pour le nucléaire, puis que tu lis l'avis du français moyen sur ça, même chez les élites, tu réalises le niveau de sélection qui s'annoncehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

tram-2309
2023-09-24 11:13:10

palu

Farlovk
2023-09-24 11:13:21

Le 24 septembre 2023 à 11:13:10 :
palu

Naturellehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

KheyfrenLeSage
2023-09-24 11:13:24

Quand tu vois qu'aux USA ça parle déjà de freiner la recherche en IA et de créer un protocole de sécurité autour d'elle à l'image de ce qui existe pour le nucléaire, puis que tu lis l'avis du français moyen sur ça, même chez les élites, tu réalises le niveau de sélection qui s'annoncehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Complétement.

Les francais ne comprennent pas ce qui arrive.
Dans 5 ans on est tous dépendant aux IA et le grand public ne s'en sera meme pas rendu compte

Farlovk
2023-09-24 11:14:51

Le 24 septembre 2023 à 11:13:24 :

Quand tu vois qu'aux USA ça parle déjà de freiner la recherche en IA et de créer un protocole de sécurité autour d'elle à l'image de ce qui existe pour le nucléaire, puis que tu lis l'avis du français moyen sur ça, même chez les élites, tu réalises le niveau de sélection qui s'annoncehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Complétement.

Les francais ne comprennent pas ce qui arrive.
Dans 5 ans on est tous dépendant aux IA et le grand public ne s'en sera meme pas rendu compte

0 grande entreprise d'IA en France et en Europehttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

On est finitoshttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

KheyDaltoIV
2023-09-24 11:16:17

GPT 4 ça vaut le coup d'acheter ou pas ?

Farlovk
2023-09-24 11:17:06

Le 24 septembre 2023 à 11:16:17 :
GPT 4 ça vaut le coup d'acheter ou pas ?

Ça dépend de ton job pour l'instanthttps://image.noelshack.com/fichiers/2021/25/1/1624307173-img-20210621-222603.jpg

Infos
Gestion du forum

contact@geevey.com

API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.

Notes

    Partenaire: JVFlux
    Ce site n'est pas associé à Jeuxvideo.com ou Webedia. Nous utilisons seulement des archives publiques.
    Il est inutile de me spammer par e-mail pour supprimer un topic. Au contraire, en conséquence, je mettrais votre topic dans le bloc ci-dessous.
Non-assumage
    Personne n'a pas assumé de topic pour le moment.