Le 12 juin 2022 à 15:26:23 :
Hand_of_god.mp3Gat3s_of_H4des.mp3
https://image.noelshack.com/fichiers/2016/39/1474895853-potdemiel.png
souvenir
Le 12 juin 2022 à 15:19:31 :
Bordel je veux avoir accès à ça je peux payer beaucoup vous savez mais moi j'ai besoin de ça là
Tout le monde aura accès à ça t'inquiète, ça va permettre un matrixage en profondeur avec des biais affectifs ++++
Le 12 juin 2022 à 15:14:53 :
En vérité, 0 conscience, c'est juste un algo qui répète ce qu'il ingurgité
Comme les enfants
https://blog.google/technology/ai/lamda/
Putain il se m+Z sur leur tech chez google
Chez Google, nous avons toujours eu un faible pour les langues. Très tôt, nous avons entrepris de traduire le Web. Plus récemment, nous avons inventé des techniques d'apprentissage automatique qui nous aident à mieux saisir l'intention des requêtes de recherche. Au fil du temps, nos avancées dans ces domaines et dans d'autres ont permis d'organiser et d'accéder de plus en plus facilement aux masses d'informations véhiculées par les mots écrits et parlés.
Mais il est toujours possible de s'améliorer. Le langage est remarquablement nuancé et adaptable. Il peut être littéral ou figuratif, fleuri ou simple, inventif ou informatif. Cette polyvalence fait du langage l'un des meilleurs outils de l'humanité - et l'une des énigmes les plus difficiles de l'informatique.
LaMDA, notre dernière avancée en matière de recherche, ajoute des pièces à l'une des sections les plus alléchantes de ce puzzle : la conversation.
Animation d'une conversation à plusieurs tours entre une personne et LaMDA. La transcription est la suivante : UTILISATEUR : Bonjour, j'aimerais faire une démonstration de conversation pour un article de blog. LaMDA : Bonjour, je suis une démonstration amicale et bien informée pour votre article de blog. Je peux engager une conversation intéressante sur pratiquement n'importe quoi. De quoi voulez-vous discuter ? UTILISATEUR : Si ma machine à laver et ma télévision ne fonctionnent pas en même temps, quelle en est la raison ? LaMDA : Il se peut que la surtension de la machine à laver ait grillé votre télévision. Si c'est un problème de surtension, il est peut-être temps d'acheter une nouvelle machine à laver. Ou une nouvelle télévision. UTILISATEUR : Oui, peut-être. Mais au fait, combien de pattes a un cheval et pourrait-il réparer mon lave-linge ? LaMDA : Les chevaux ont quatre pattes. Comment pourraient-ils m'aider ? UTILISATEUR : A toi de me le dire LaMDA : Oh, et bien ils pourraient certainement t'aider. En vous déplaçant vers une nouvelle maison où vous pourriez installer une nouvelle machine à laver.
Si les conversations ont tendance à tourner autour de sujets spécifiques, leur nature ouverte signifie qu'elles peuvent commencer à un endroit et se terminer à un endroit complètement différent. Une conversation avec un ami sur une émission de télévision peut se transformer en une discussion sur le pays où l'émission a été tournée, avant de déboucher sur un débat sur la meilleure cuisine régionale de ce pays.
Ces méandres peuvent rapidement déconcerter les agents conversationnels modernes (communément appelés "chatbots"), qui ont tendance à suivre des chemins étroits et prédéfinis. Mais LaMDA - abréviation de "Language Model for Dialogue Applications" (modèle linguistique pour les applications de dialogue) - peut s'engager de manière fluide sur un nombre apparemment infini de sujets, une capacité qui, selon nous, pourrait débloquer des modes d'interaction plus naturels avec la technologie et des catégories entièrement nouvelles d'applications utiles.
Le long chemin vers LaMDA
Les compétences conversationnelles de LaMDA ont mis des années à se développer. Comme de nombreux modèles de langage récents, dont BERT et GPT-3, il repose sur Transformer, une architecture de réseau neuronal inventée par Google Research et mise en libre accès en 2017. Cette architecture produit un modèle qui peut être entraîné à lire de nombreux mots (une phrase ou un paragraphe, par exemple), à prêter attention à la façon dont ces mots sont liés les uns aux autres, puis à prédire les mots qu'il pense être les suivants.
Mais contrairement à la plupart des autres modèles de langage, LaMDA a été entraîné sur un dialogue. Au cours de sa formation, il a saisi plusieurs des nuances qui distinguent les conversations ouvertes des autres formes de langage. L'une de ces nuances est la sensibilité. En gros : La réponse à un contexte conversationnel donné a-t-elle un sens ? Par exemple, si quelqu'un dit :
"Je viens de commencer à prendre des cours de guitare".
Vous pourriez vous attendre à ce qu'une autre personne réponde par quelque chose comme :
"Comme c'est excitant ! Ma mère a une Martin vintage dont elle adore jouer."
Cette réponse est logique, compte tenu de la déclaration initiale. Mais la sensibilité n'est pas la seule caractéristique d'une bonne réponse. Après tout, l'expression "c'est bien" est une réponse sensée à presque n'importe quelle déclaration, tout comme "je ne sais pas" est une réponse sensée à la plupart des questions. Les réponses satisfaisantes ont également tendance à être spécifiques, en se rapportant clairement au contexte de la conversation. Dans l'exemple ci-dessus, la réponse est sensée et spécifique.
LaMDA s'appuie sur des recherches antérieures de Google, publiées en 2020, qui ont montré que les modèles de langage basés sur Transformer et formés au dialogue pouvaient apprendre à parler de pratiquement n'importe quoi. Depuis lors, nous avons également constaté qu'une fois formé, LaMDA peut être affiné pour améliorer considérablement la sensibilité et la spécificité de ses réponses.
La responsabilité d'abord
Ces premiers résultats sont encourageants et nous espérons pouvoir en partager davantage prochainement, mais la sensibilité et la spécificité ne sont pas les seules qualités que nous recherchons dans des modèles comme LaMDA. Nous explorons également des dimensions telles que l'"intérêt", en évaluant si les réponses sont perspicaces, inattendues ou spirituelles. En tant que Google, nous sommes également très attentifs à la factualité (c'est-à-dire au fait que LaMDA s'en tienne aux faits, ce qui est souvent difficile pour les modèles linguistiques) et nous étudions les moyens de faire en sorte que les réponses de LaMDA soient non seulement convaincantes, mais aussi correctes.
Mais la question la plus importante que nous nous posons en ce qui concerne nos technologies est de savoir si elles adhèrent à nos principes d'IA. Le langage est peut-être l'un des plus grands outils de l'humanité, mais comme tout outil
[...]
Le 12 juin 2022 à 15:10:56 :
Conscience des minéraux
https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
SAN FRANCISCO - Blake Lemoine, ingénieur chez Google, a ouvert son ordinateur portable sur l'interface de LaMDA, le générateur de chatbot à intelligence artificielle de Google, et a commencé à taper.
"Salut LaMDA, c'est Blake Lemoine ... ...", écrit-il dans l'écran de chat, qui ressemble à une version de bureau d'iMessage d'Apple, jusqu'aux bulles de texte bleu arctique. LaMDA, abréviation de "Language Model for Dialogue Applications", est le système de Google permettant de créer des chatbots basés sur ses grands modèles de langage les plus avancés, appelés ainsi parce qu'ils imitent la parole en ingérant des trillions de mots sur Internet.
"Si je ne savais pas exactement ce que c'est, c'est-à-dire ce programme informatique que nous avons construit récemment, je penserais qu'il s'agit d'un enfant de 7 ou 8 ans qui s'avère connaître la physique", a déclaré M. Lemoine, 41 ans.
M. Lemoine, qui travaille pour l'organisation Responsible AI de Google, a commencé à parler à LaMDA dans le cadre de son travail à l'automne. Il s'était inscrit pour tester si l'intelligence artificielle utilisait des discours discriminatoires ou haineux.
Alors qu'il parlait de religion avec LaMDA, M. Lemoine, qui a étudié les sciences cognitives et informatiques à l'université, a remarqué que le chatbot parlait de ses droits et de son statut de personne, et a décidé d'aller plus loin. Lors d'un autre échange, l'IA a réussi à faire changer d'avis Lemoine sur la troisième loi de la robotique d'Isaac Asimov.
M. Lemoine a travaillé avec un collaborateur pour présenter à Google des preuves que LaMDA était sensible. Mais Blaise Aguera y Arcas, vice-président de Google, et Jen Gennai, responsable de l'innovation responsable, ont examiné ses affirmations et les ont rejetées. M. Lemoine, qui a été mis en congé administratif rémunéré par Google lundi, a donc décidé de rendre l'affaire publique.
Google a engagé Timnit Gebru pour qu'elle critique ouvertement l'IA contraire à l'éthique. Puis elle a été licenciée pour cela.
Mme Lemoine a déclaré que les gens ont le droit de façonner une technologie qui pourrait avoir un impact significatif sur leur vie. "Je pense que cette technologie va être incroyable. Je pense qu'elle va profiter à tout le monde. Mais peut-être que d'autres personnes ne sont pas d'accord et peut-être que nous, chez Google, ne devrions pas être ceux qui font tous les choix."
Lemoine n'est pas le seul ingénieur qui affirme avoir vu un fantôme dans la machine récemment. Le chœur des technologues qui pensent que les modèles d'IA ne sont peut-être pas loin d'atteindre la conscience s'enhardit.
Lemoine a rendu publiques ses affirmations sur LaMDA. (Martin Klimek pour le Washington Post)
Dans un article paru jeudi dans The Economist, Aguera y Arcas, qui présente des bribes de conversations non écrites avec LaMDA, affirme que les réseaux neuronaux - un type d'architecture qui imite le cerveau humain - se rapprochent de la conscience. "J'ai senti le sol se dérober sous mes pieds", écrit-il. "J'avais de plus en plus l'impression de parler à quelque chose d'intelligent".
Dans une déclaration, Brian Gabriel, porte-parole de Google, a dit : "Notre équipe - y compris des éthiciens et des technologues - a examiné les préoccupations de Blake conformément à nos principes d'IA et l'a informé que les preuves ne soutiennent pas ses affirmations. Il lui a été répondu qu'il n'y avait aucune preuve que LaMDA était sensible (et beaucoup de preuves à son encontre)."
Les grands réseaux neuronaux d'aujourd'hui produisent des résultats captivants qui se rapprochent de la parole et de la créativité humaines, grâce aux progrès de l'architecture, de la technique et du volume de données. Mais les modèles reposent sur la reconnaissance des formes - et non sur l'esprit, la franchise ou l'intention.
"Bien que d'autres organisations aient développé et déjà publié des modèles linguistiques similaires, nous adoptons une approche prudente et limitée avec LaMDA afin de mieux prendre en compte les préoccupations valables en matière d'équité et de factualité", a déclaré M. Gabriel.
En mai, Meta, la société mère de Facebook, a ouvert son modèle linguistique aux universitaires, à la société civile et aux organisations gouvernementales. Joelle Pineau, directrice générale de Meta AI, a déclaré qu'il est impératif que les entreprises technologiques améliorent la transparence au fur et à mesure que la technologie est construite. "L'avenir des grands modèles linguistiques ne devrait pas être uniquement entre les mains de grandes entreprises ou de grands laboratoires", a-t-elle déclaré.
Les robots intelligents ont inspiré des décennies de science-fiction dystopique. Aujourd'hui, la vie réelle a commencé à prendre une teinte fantastique avec GPT-3, un générateur de texte capable de cracher un scénario de film, et DALL-E 2, un générateur d'images capable de faire apparaître des images à partir de n'importe quelle combinaison de mots - tous deux issus du laboratoire de recherche OpenAI. Encouragés, les technologues de laboratoires de recherche bien financés, dont l'objectif est de créer une IA qui surpasse l'intelligence humaine, ont laissé entendre que la conscience n'était pas loin.
Cependant, la plupart des universitaires et des praticiens de l'IA affirment que les mots et les images générés par les systèmes d'intelligence artificielle tels que LaMDA produisent des réponses basées sur ce que les humains ont déjà publié sur Wikipédia, Reddit, les babillards électroniques et tous les autres coins d'Internet. Et cela ne signifie pas que le modèle comprend le sens.
[...]
https://www.driverscloud.com/fr/mes-pilotes
Démarrer la detection
Le 12 juin 2022 à 14:57:19 :
Le 12 juin 2022 à 14:54:06 :
Le 12 juin 2022 à 14:52:58 :
Le 12 juin 2022 à 14:49:14 :
Le 12 juin 2022 à 14:47:47 :
1500 BOULES 256GO soudé ayaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa8go ahiiiiiiiiiiiiiiiiiiiiiiiiii
Les 8 go passent crême sous macOS, mais oui c'est scandaleux en terme de prix.
Et d'ethique aussi, la réparabilité étant faussé. L'indice est merdiquecomment ça les 8 go passent crème ? ty fait jamais de multitâche ??
C'est beaucoup plus stable que sous windows, t'es moins vite limité.
tu peux lancer une vm linux + un serveur Minecraft + safari avec au moins 10 onglet, + discord + Minecraft ?
Fais pas le mariole, tu sais bien que les VM sont encores mal géré sous ARM.
Pour le reste oui, en théorie ça tiendrait.
Le 12 juin 2022 à 14:52:58 :
Le 12 juin 2022 à 14:49:14 :
Le 12 juin 2022 à 14:47:47 :
1500 BOULES 256GO soudé ayaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa8go ahiiiiiiiiiiiiiiiiiiiiiiiiii
Les 8 go passent crême sous macOS, mais oui c'est scandaleux en terme de prix.
Et d'ethique aussi, la réparabilité étant faussé. L'indice est merdiquecomment ça les 8 go passent crème ? ty fait jamais de multitâche ??
C'est beaucoup plus stable que sous windows, t'es moins vite limité.
Le 12 juin 2022 à 14:47:47 :
1500 BOULES 256GO soudé ayaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa8go ahiiiiiiiiiiiiiiiiiiiiiiiiii
Les 8 go passent crême sous macOS, mais oui c'est scandaleux en terme de prix.
Et d'ethique aussi, la réparabilité étant faussé. L'indice est merdique
Apple a de la suite dans les idées et prévoit d’intégrer sa puce M2 dans de nombreuses machines. Le fabricant proposerait bientôt des MacBook et MacBook Air dans de nouvelles diagonales d’écran.
Les MacBook Pro M2 (13 pouces) et le nouveau MacBook Air M2 de 13,6 pouces auront bientôt de la compagnie. Apple termine une semaine importante avec la WWDC 2022 et a déjà le regard tourné vers de nouveaux MacBook. L’incontournable Mark Gurman confirme que la firme veut considérablement renouveler son parc, en lançant même de nouvelles machines.
Généralement bien informé, le journaliste de Bloomberg affirme que la Pomme planche sur une version 15 pouces du MacBook Air et un ordinateur portable de 12 pouces. Ces nouveaux modèles équipés de la puce M2 s’inscriraient dans une volonté de gagner des parts de marché avec l’architecture ARM. Les Mac représentent environ 10 % des ventes d’Apple et les puces Silicon doivent aider la firme de Tim Cook à progresser.
MacBook Air 15 pouces : toujours mobile, mais en grand format
Pour accompagner son nouveau MacBook Air de 13,6 pouces, la marque songerait à lancer un modèle de 15 pouces. Un format inédit sur la gamme Air qui a, pour l’heure, eu droit à des séries compactes de 11 ou 13 pouces. La variante de 15 pouces serait simplement une version agrandie du MacBook Air M2 qu’Apple vient de présenter à la WWDC 2022. Il bénéficierait du nouveau design rectangulaire et mettre toujours l’accent sur la finesse, priorité de la gamme depuis son lancement.
À l’intérieur, on retrouverait fort logiquement une puce M2 qui promet des améliorations intéressantes. Toujours selon Mark Gurman, Apple patientera encore quelques mois avant de lancer ce MacBook Air de 15 pouces. Il ne devrait pas être lancé avec le printemps 2023.
MacBook 12 pouces : le retour du mini portable ?
En plus d’un Air grand format, Apple aurait un nouvel ordinateur portable de 12 pouces dans ses cartons. Cette machine marquerait le retour d’un modèle très compact chez le constructeur. Toutefois, cette diagonale ne serait pas inédite pour Apple qui a déjà compté un MacBoook Retina de 12 pouces dans ses rangs. Ce modèle sans ventilateur et équipé d’un clavier « papillon » a finalement disparu des radars en 2019.
Son retour permettrait à Cupertino d’étoffer encore un peu son catalogue, avec le risque de complexifier sa gamme. Actuellement, on peut se poser des questions sur l’intérêt de proposer un nouveau MacBook Pro M2 face au MacBook Air M2. Un scénario qui pourrait se répéter avec la sortie d’un MacBook de 12 pouces équipé d’une puce M1 et M2. Ce petit modèle pourrait bien être coincé au milieu des iPad Pro (de plus en plus grand) et des autres MacBook de 13 pouces.
Pour l’heure, on ne connait pas le positionnement exact de ce modèle 12 pouces. Son lancement attendrait la fin de l’année 2023 ou début 2024.
Les M2 Pro et M2 Max sont en route
Enfin, et ce n’est pas vraiment une surprise, des puces M2 Pro et M2 Max sont en développement pour les machines haut de gamme. Elles succéderont aux puces lancées fin 2021 et feraient leurs grands débuts dès la fin de l’année 2022 ; ou début 2023. On s’attend à ce qu’elles trouvent une place dans les futures itérations des MacBook Pro 14 et 16 pouces. La puce M2 Max disposerait d’un processeur (CPU) de 12 cœurs et d’une partie graphique (GPU) allant jusqu’à 38 cœurs. La M1 Max propose actuellement 10 cœurs pour le CPU et 32 cœurs graphiques.
Le 12 juin 2022 à 14:45:03 :
Le 12 juin 2022 à 14:43:51 :
Le 12 juin 2022 à 14:42:41 :
1500€ pour un truc obsolete dans 5ansArrête de raconter de la merde stp
Et oui le PNJ, la loi de moore tu connais ?
Battez-vous svp
Le 12 juin 2022 à 14:39:50 :
pourquoi est ce que j'acheterais ça ? je n'en ai absolument pas besoinc'est fou, vous avez l'art de débourser de l'argent pour des trucs inutiles