SeekAss c’est stylé
Le 02 août 2021 à 23:19:12 Kropax a écrit :
Le 02 août 2021 à 23:18:13 :
Le 02 août 2021 à 23:15:18 Kropax a écrit :
Le 02 août 2021 à 23:14:12 :
Le 02 août 2021 à 23:13:02 Kropax a écrit :
Le 02 août 2021 à 22:31:30 :
Je vais programmer un script en charge de parcourir la liste des vidéo porno existantes et y appliquer un algorithme de reconnaissance faciale dans l'espoir de tomber sur un homemade d'une de mes connaissances.Ceux qui ont un peu plus d'imagination que moi : vous auriez un nom avec une référence sympa à suggérer please ?
pourquoi çà marchera pas :
télécharger des millions de vidéos porno et les analyser, demanderait plus qu'un datacenter peut fournir.
Bah non. Je les stocke pas. Je les télécharge, analyse, puis supprime.
chercher frame par frame un tête sur une vidéo de 10-15minutes je sais pas si c'est possible, à une vitesse respectable
J'ai pas besoin de cherche la tête frame par frame... Je prends une frame toutes les 5 secondes par exemple...
Franchement c'est un boost à l'égo de constater que ce genre de solutions simples qui m'ont paru évidentes ne le sont pas pour tout le monde.
On se sent INGÉNIEUR.t'es en plein Dunning Kruger c'est normal.
C'est ça, c'est ça.
J'ai jamais affirmé que j'allais réussir mon projet haut la main, ni même qu'il était simple.
Simplement, je connais les contraintes, j'y ai réfléchis, et j'y ai trouvé des solutions.
Le 02 août 2021 à 22:47:31 :
C'est un peu chelou mais soit : Pornoproche ou My Pornstar Friend
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)
Source demandée pour les deux affirmations s'il te plaît.
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça
edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Le 02 août 2021 à 23:24:41 boris9boris a écrit :
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver çaedit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Cool, merci d'avoir pris le temps de chercher.
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.
Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait.
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir.
Le 02 août 2021 à 23:28:35 :
Le 02 août 2021 à 23:24:41 boris9boris a écrit :
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver çaedit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Cool, merci d'avoir pris le temps de chercher.
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait.
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir.
il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.
Le 02 août 2021 à 23:31:13 boris9boris a écrit :
Le 02 août 2021 à 23:28:35 :
Le 02 août 2021 à 23:24:41 boris9boris a écrit :
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver çaedit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Cool, merci d'avoir pris le temps de chercher.
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait.
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir.il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.
Yep, deepnude c'est un autre débat encore.
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes...
Le 02 août 2021 à 23:34:19 :
Le 02 août 2021 à 23:31:13 boris9boris a écrit :
Le 02 août 2021 à 23:28:35 :
Le 02 août 2021 à 23:24:41 boris9boris a écrit :
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver çaedit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Cool, merci d'avoir pris le temps de chercher.
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait.
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir.il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.
Yep, deepnude c'est un autre débat encore.
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes...
tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.
Le 02 août 2021 à 23:37:00 boris9boris a écrit :
Le 02 août 2021 à 23:34:19 :
Le 02 août 2021 à 23:31:13 boris9boris a écrit :
Le 02 août 2021 à 23:28:35 :
Le 02 août 2021 à 23:24:41 boris9boris a écrit :
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver çaedit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Cool, merci d'avoir pris le temps de chercher.
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait.
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir.il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.
Yep, deepnude c'est un autre débat encore.
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes...tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.
Déjà faut différencier détection et identification.
La détection ça se fait très simplement, il y a des centaines d'implémentation existantes pour détecter un visage dans une image, y compris certaines intégrées dans OpenCV.
L'identification c'est un peu plus délicat. J'ai pas regardé de très près l'état de l'art. Mais j'imagine qu'il doit exister des datasets open-source qui font suffisament bien le taff ( https://paperswithcode.com/task/face-identification ).
Dans un 1er temps de toute manière, je fais uniquement de la détection. Je stocke les image, et dans un deuxième temps je pourrais y appliquer mes algos d'identification (voire en comparer plusieurs, une fois que j'ai la DB des images ce sera plus simple).
Le 02 août 2021 à 23:43:40 :
Le 02 août 2021 à 23:37:00 boris9boris a écrit :
Le 02 août 2021 à 23:34:19 :
Le 02 août 2021 à 23:31:13 boris9boris a écrit :
Le 02 août 2021 à 23:28:35 :
Le 02 août 2021 à 23:24:41 boris9boris a écrit :
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver çaedit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Cool, merci d'avoir pris le temps de chercher.
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait.
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir.il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.
Yep, deepnude c'est un autre débat encore.
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes...tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.
Déjà faut différencier détection et identification.
La détection ça se fait très simplement, il y a des centaines d'implémentation existantes pour détecter un visage dans une image, y compris certaines intégrées dans OpenCV.
L'identification c'est un peu plus délicat. J'ai pas regardé de très près l'état de l'art. Mais j'imagine qu'il doit exister des datasets open-source qui font suffisament bien le taff ( https://paperswithcode.com/task/face-identification ).Dans un 1er temps de toute manière, je fais uniquement de la détection. Je stocke les image, et dans un deuxième temps je pourrais y appliquer mes algos d'identification (voire en comparer plusieurs, une fois que j'ai la DB des images ce sera plus simple).
Ok merci je comprends mieux.
Au pire afin d'éviter des problèmes avec la loi, je te propose de faire un logiciel de reconnaissance faciale pour youtube à relier à instagram/twitter/facebook/linkedin.
Le 02 août 2021 à 23:48:14 boris9boris a écrit :
Le 02 août 2021 à 23:43:40 :
Le 02 août 2021 à 23:37:00 boris9boris a écrit :
Le 02 août 2021 à 23:34:19 :
Le 02 août 2021 à 23:31:13 boris9boris a écrit :
Le 02 août 2021 à 23:28:35 :
Le 02 août 2021 à 23:24:41 boris9boris a écrit :
Le 02 août 2021 à 23:24:07 :
Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)Source demandée pour les deux affirmations s'il te plaît.
https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver çaedit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt
Cool, merci d'avoir pris le temps de chercher.
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait.
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir.il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.
Yep, deepnude c'est un autre débat encore.
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes...tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.
Déjà faut différencier détection et identification.
La détection ça se fait très simplement, il y a des centaines d'implémentation existantes pour détecter un visage dans une image, y compris certaines intégrées dans OpenCV.
L'identification c'est un peu plus délicat. J'ai pas regardé de très près l'état de l'art. Mais j'imagine qu'il doit exister des datasets open-source qui font suffisament bien le taff ( https://paperswithcode.com/task/face-identification ).Dans un 1er temps de toute manière, je fais uniquement de la détection. Je stocke les image, et dans un deuxième temps je pourrais y appliquer mes algos d'identification (voire en comparer plusieurs, une fois que j'ai la DB des images ce sera plus simple).
Ok merci je comprends mieux.
Au pire afin d'éviter des problèmes avec la loi, je te propose de faire un logiciel de reconnaissance faciale pour youtube à relier à instagram/twitter/facebook/linkedin.
Oui bien vu. C'est ce que je vais faire. Je donne une structure globale pour identifier des visages sur différents types de contenus (vidéos youtube, image instagram, xxx éventuellement...).
Mais je ferai proposerai pas d'identification inter-platforme publiquement je pense pas.
Moi j'ai envie de faire un bot qui affiche publiquement sur twitter à chaque fois qu'un député n'est pas à l'assemblé et son excuse pour ne pas y être
Le 02 août 2021 à 23:55:16 oracleDissou5 a écrit :
Moi j'ai envie de faire un bot qui affiche publiquement sur twitter à chaque fois qu'un député n'est pas à l'assemblé et son excuse pour ne pas y être
C'est pas une mauvaise idée, ça doit pouvoir se faire sans trop de difficulté si t'as la bonne source pour connaître l'absence d'un député.
#!/usr/bin/env python
import face_recognition
import cv2
import youtube_dl
import ffmpeg
import argparse
import tempfile
from pathlib import Path
def main():
parser = argparse.ArgumentParser()
parser.add_argument("url", help="url of the video to download and where to detect faces")
args = parser.parse_args()
with tempfile.TemporaryDirectory() as tempdir:
video_path = f"{tempdir}/test.mp4"
params = {"outtmpl": video_path, "restrictfilenames": True}
with youtube_dl.YoutubeDL(params) as ydl:
ydl.download([args.url])
stream = ffmpeg.input(video_path)
out, _ = (
stream.filter("select", "gte(n,{})".format(1825))
.output("pipe:", vframes=1, format="image2", vcodec="mjpeg")
.run(capture_stdout=True)
)
image_path = f"{tempdir}/test.jpg"
with open(image_path, "wb") as file:
file.write(out)
image = face_recognition.load_image_file(image_path)
face_locations = face_recognition.face_locations(image)
image = cv2.imread(image_path)
print("Faces count: {}", len(face_locations))
for i, (top, right, bottom, left) in enumerate(face_locations):
face = image[top:bottom, left:right]
cv2.imwrite(f"face_{i}.jpg", face)
if __name__ == "__main__":
main()
C'est cool ce qu'on peut faire avec 50 lignes de Python.
Allez bonne nuit.