Le 01 juin 2022 à 09:12:05 :
Honnêtement c’était plus un running gag, mais je dois avouer que ça devient louche plus les années avancent. Surtout sur ce RG soit il joue l’intox a fond, soit il est bien chargé. C’est difficile à croire qu’à l’agonie comme il était à Rome il puisse enchaîner 2 matchs aussi intenses physiquement.
Mais dans tous les cas soit c’est un gros menteur soit un dopé donc au final ça reste des moyens très discutables dans les 2 cas
Je vois pas comment aujourd'hui on ne peut avoir le moindre doute sur lui.
Ce qui est drôle c'est que Nadal avait plus d'articles sur son supposé dopage à 20 ans qu'aujourd'hui, alors que ça serait plus logique qu'il se prenne un shitstorm aujourd'hui.
Le procédé n'est pas interdit mais terriblement malhonnête
C'est ce qui me rend le personnage antipathique.
Toujours une excuse pour diminuer le mérite du vainqueur quand il s'incline
Je n'ai jamais compris pourquoi Nadal est perçu comme l'un des plus fairplay du circuit alors que ses actions et déclarations montre tout autre chose
"J'etais blessé, j'avais mal ici ou là mais je ne veux pas parler de moi, mon adversaire mérite sa victoire"
Bravo à Nadal, il mérite sa victoire MAIS...ce match est précisément pourquoi je ne supporte plus quand ses fameuses douleurs au pied sont évoqués avant des matchs.
Comment peut on encore jouer à l'âge canonique de 36 ans deux matchs consecutifs intense de 4h en courant sur pratiquement toutes les balles sans afficher le moindre signe d'inquiétude ?
AUCUNE grimace, AUCUN boitement affichée par l'espagnol en 8h de jeu sur 2 tour.
Tant qu'il mène au score, il ne montre jamais dans ce contexte de signe alarmant sur le court.
Ce n'est que lorsqu'il est mené au score et pousser vers la sortie, que Nadal se rappelle qu'il a des douleurs au pied et commence à trainer la patte, se toucher le pied.
C'est pour être honnête insupportable.
Voir le joueur déclarer à quel point son pied le faisait souffrir il y a un peu moins de 2 semaines pour rapidement être capable de courrir partout pendant le tournoi et d'enchaîner à 36 ans des matchs à rallonge...
Je ne sais pas à un moment il faut arrêter de se moquer du monde.
Nadal surjoue ses bobos pour s'enlever de la pression et minimiser la victoire de ses adversaires en cas d'échec.
Le procédé n'est pas interdit mais vraiment malhonnête.*
J'ai de plus en plus de mal à accepter ses douleurs au pied quand on le voit courrir de plus belle après 3h de jeu avec des défenses de martiens pour faire jouer le coup de trop.
Le pire c'est que je serais pas surpris de le voir galoper comme un lapin pendant encore des heures face à Zverev malgré le temps passé dernièrement sur les courts.
A mes yeux il ne fait aucun doute lorsque je constate ce type de performance que le bonhomme nous fait beaucoup d'intox
Le 01 juin 2022 à 07:26:09 :
Comment l'opérateur du samu pouvait-il savoir la couleur de la personne par téléphone ?
Pourquoi tu fais exprès de jouer au con ?
Le 01 juin 2022 à 07:25:31 :
c'était un accident, ca arrive, le mec n'est pas excusable il a fait une erreur fin de l'histoire pas besoin de saupoudrer de racisme ou je ne sais quelle connerie
El famoso accident
https://mobile.twitter.com/davidperrotin/status/1531662900527517698
Yolande Gabriel, 65 ans, est décédée après avoir attendu les secours plus d’1h. Pendant son appel au 15, elle a été méprisée et ses souffrances ont été minimisées. Sa fille s’interroge sur d’éventuels préjugés racistes.
Des scientifiques de l’Université de Harvard ont découvert que les programmes d’IA peuvent déterminer la couleur de peau d’une personne avec une précision de plus de 90% à partir d’une radiographie.
Si les chercheurs ne comprennent pas quelles informations permettent aux IA de détecter cette information, le plus gros problème est que les chercheurs ont remarqué que l’IA apprend de ces analyses de rayons X et utilise cette information dans le processus de diagnostic médical et de choix du traitement du patient, et pas toujours en bien !
L’Intelligence artificielle raciste et sexiste
Si l’on a longtemps pensé que l’Intelligence Artificielle (IA) pourrait être exempte des préjugés (de couleurs, de sexes, de religion, …) qui empêchent l’humain d’être neutre, on s’est finalement rendu compte que ce n’est pas le cas.
En effet, un algorithme "peut être raciste, sexiste et nuire aux pauvres", comme l’explique Elise De Grave, professeure à l’UNamur. De plus, de nombreuses études prouvent que l’Intelligence Artificielle peut être sexiste ou raciste en fonction des programmateurs qui ont codé l’algorithme.
Une étude qui prouve autre chose qu’escompté
L’objectif de l’étude de l’équipe d’Harvard était, avant tout, de déterminer dans quelle mesure les systèmes d’IA pouvaient détecter l’origine ethnique à partir des rayons X et d’en savoir plus sur la manière dont ils sont réellement capables de le faire.
Comme l’explique Boston.com, l’équipe de recherche a formé les programmes d’IA à l’aide de rayons X et de tomodensitogrammes standard de différentes parties du corps. Chaque image (parfois très dégradée) était étiquetée avec l’origine ethnique autodéclarée par le patient mais ne contenait aucune trace de marqueurs raciaux tels que la couleur de la peau, la densité osseuse ou la texture des cheveux.
Les IA arrivent à la bonne réponse plus de 90% du temps. Une bonne nouvelle ? Peut-être mais, selon un communiqué du MIT, les scientifiques ne comprennent pas quelles caractéristiques d’une image permettent au programme de détecter la couleur de peau d’un patient…
Pour l’instant, les chercheurs pensent que l’imagerie médicale enregistre d’une manière ou d’une autre le niveau de mélanine dans la peau d’un patient mais d’une façon que les humains n’ont encore jamais détectée, explique le Boston Globe.
Second problème, l’IA utilise ensuite cette information et pas toujours de manière neutre : "Nous soulignons que la capacité de l’IA à prédire l’identité raciale n’est pas en soi important, mais plutôt que cette capacité est facilement apprise et est donc susceptible d’être présente dans de nombreux modèles d’analyse d’images médicales", explique Marzyeh Ghassemi, professeur adjoint au Massachusetts Institute of Technology et co-auteur de l’étude.
Cette étude relance le débat et le dilemme des programmateurs sur la capacité que l’humain a de créer une Intelligence Artificielle qui n’aurait pas les préjugés et les biais que l’on a… une IA neutre est-elle possible ?
Le 25 février 2022 à 17:44:39 :
Les seuls Fds sont des aristocrates qui baisent entre cousins khey.
Non
Les Français dans les années 30 :
L’immigration n’a JAMAIS ÉTÉ BÉNÉFIQUE.