[Help] J'ai un projet fou : trouvez-lui un nom !

OIOIOIOlD
2021-08-02 23:20:10

SeekAss c’est styléhttps://image.noelshack.com/fichiers/2018/52/4/1545950497-jesus-deux-mains-rire-sticker.png

Len_Ren
2021-08-02 23:20:33

Gouv.fr vu comment ils nous enc*****

IngesclaveFou
2021-08-02 23:20:33

Le 02 août 2021 à 23:19:12 Kropax a écrit :

Le 02 août 2021 à 23:18:13 :

Le 02 août 2021 à 23:15:18 Kropax a écrit :

Le 02 août 2021 à 23:14:12 :

Le 02 août 2021 à 23:13:02 Kropax a écrit :

Le 02 août 2021 à 22:31:30 :
Je vais programmer un script en charge de parcourir la liste des vidéo porno existantes et y appliquer un algorithme de reconnaissance faciale dans l'espoir de tomber sur un homemade d'une de mes connaissances. :oui:

Ceux qui ont un peu plus d'imagination que moi : vous auriez un nom avec une référence sympa à suggérer please ? :ange:

pourquoi çà marchera pas :

télécharger des millions de vidéos porno et les analyser, demanderait plus qu'un datacenter peut fournir.

Bah non. Je les stocke pas. Je les télécharge, analyse, puis supprime. :(

chercher frame par frame un tête sur une vidéo de 10-15minutes je sais pas si c'est possible, à une vitesse respectable

J'ai pas besoin de cherche la tête frame par frame... Je prends une frame toutes les 5 secondes par exemple...

Franchement c'est un boost à l'égo de constater que ce genre de solutions simples qui m'ont paru évidentes ne le sont pas pour tout le monde. :rire: :fier:
On se sent INGÉNIEUR. :noel:

t'es en plein Dunning Kruger c'est normal.

C'est ça, c'est ça. :rire:

J'ai jamais affirmé que j'allais réussir mon projet haut la main, ni même qu'il était simple.

Simplement, je connais les contraintes, j'y ai réfléchis, et j'y ai trouvé des solutions. :ok:

Under-the-sky
2021-08-02 23:21:10

Le 02 août 2021 à 22:47:31 :
C'est un peu chelou mais soit : Pornoproche ou My Pornstar Friend

:rire:

MerMat23
2021-08-02 23:21:34

Ça ne marchera pas y'a trop de vidéo et la reconnaissance hasardeuse

Under-the-sky
2021-08-02 23:22:33

Je doute que ce genre de projet soit accepté. :noel:

boris9boris
2021-08-02 23:22:51

projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

IngesclaveFou
2021-08-02 23:24:07

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

boris9boris
2021-08-02 23:24:41

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

IngesclaveFou
2021-08-02 23:28:35

Le 02 août 2021 à 23:24:41 boris9boris a écrit :

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

Cool, merci d'avoir pris le temps de chercher. :oui:
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.

Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait. :question:
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir. :(

Android-Shuffle
2021-08-02 23:30:33

BeatMyMeet

boris9boris
2021-08-02 23:31:13

Le 02 août 2021 à 23:28:35 :

Le 02 août 2021 à 23:24:41 boris9boris a écrit :

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

Cool, merci d'avoir pris le temps de chercher. :oui:
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.

Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait. :question:
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir. :(

il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.

IngesclaveFou
2021-08-02 23:34:19

Le 02 août 2021 à 23:31:13 boris9boris a écrit :

Le 02 août 2021 à 23:28:35 :

Le 02 août 2021 à 23:24:41 boris9boris a écrit :

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

Cool, merci d'avoir pris le temps de chercher. :oui:
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.

Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait. :question:
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir. :(

il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.

Yep, deepnude c'est un autre débat encore. :noel:
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes... :peur:

boris9boris
2021-08-02 23:37:00

Le 02 août 2021 à 23:34:19 :

Le 02 août 2021 à 23:31:13 boris9boris a écrit :

Le 02 août 2021 à 23:28:35 :

Le 02 août 2021 à 23:24:41 boris9boris a écrit :

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

Cool, merci d'avoir pris le temps de chercher. :oui:
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.

Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait. :question:
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir. :(

il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.

Yep, deepnude c'est un autre débat encore. :noel:
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes... :peur:

tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.

IngesclaveFou
2021-08-02 23:43:40

Le 02 août 2021 à 23:37:00 boris9boris a écrit :

Le 02 août 2021 à 23:34:19 :

Le 02 août 2021 à 23:31:13 boris9boris a écrit :

Le 02 août 2021 à 23:28:35 :

Le 02 août 2021 à 23:24:41 boris9boris a écrit :

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

Cool, merci d'avoir pris le temps de chercher. :oui:
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.

Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait. :question:
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir. :(

il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.

Yep, deepnude c'est un autre débat encore. :noel:
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes... :peur:

tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.

Déjà faut différencier détection et identification.

La détection ça se fait très simplement, il y a des centaines d'implémentation existantes pour détecter un visage dans une image, y compris certaines intégrées dans OpenCV.
L'identification c'est un peu plus délicat. J'ai pas regardé de très près l'état de l'art. Mais j'imagine qu'il doit exister des datasets open-source qui font suffisament bien le taff ( https://paperswithcode.com/task/face-identification ).

Dans un 1er temps de toute manière, je fais uniquement de la détection. Je stocke les image, et dans un deuxième temps je pourrais y appliquer mes algos d'identification (voire en comparer plusieurs, une fois que j'ai la DB des images ce sera plus simple).

boris9boris
2021-08-02 23:48:14

Le 02 août 2021 à 23:43:40 :

Le 02 août 2021 à 23:37:00 boris9boris a écrit :

Le 02 août 2021 à 23:34:19 :

Le 02 août 2021 à 23:31:13 boris9boris a écrit :

Le 02 août 2021 à 23:28:35 :

Le 02 août 2021 à 23:24:41 boris9boris a écrit :

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

Cool, merci d'avoir pris le temps de chercher. :oui:
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.

Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait. :question:
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir. :(

il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.

Yep, deepnude c'est un autre débat encore. :noel:
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes... :peur:

tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.

Déjà faut différencier détection et identification.

La détection ça se fait très simplement, il y a des centaines d'implémentation existantes pour détecter un visage dans une image, y compris certaines intégrées dans OpenCV.
L'identification c'est un peu plus délicat. J'ai pas regardé de très près l'état de l'art. Mais j'imagine qu'il doit exister des datasets open-source qui font suffisament bien le taff ( https://paperswithcode.com/task/face-identification ).

Dans un 1er temps de toute manière, je fais uniquement de la détection. Je stocke les image, et dans un deuxième temps je pourrais y appliquer mes algos d'identification (voire en comparer plusieurs, une fois que j'ai la DB des images ce sera plus simple).

Ok merci je comprends mieux.

Au pire afin d'éviter des problèmes avec la loi, je te propose de faire un logiciel de reconnaissance faciale pour youtube à relier à instagram/twitter/facebook/linkedin.

IngesclaveFou
2021-08-02 23:52:16

Le 02 août 2021 à 23:48:14 boris9boris a écrit :

Le 02 août 2021 à 23:43:40 :

Le 02 août 2021 à 23:37:00 boris9boris a écrit :

Le 02 août 2021 à 23:34:19 :

Le 02 août 2021 à 23:31:13 boris9boris a écrit :

Le 02 août 2021 à 23:28:35 :

Le 02 août 2021 à 23:24:41 boris9boris a écrit :

Le 02 août 2021 à 23:24:07 :

Le 02 août 2021 à 23:22:51 boris9boris a écrit :
projet déjà fait il y a quelques années par un chinois il me semble, c'était la panique total.
ça relié les vidéos porno aux photos de facebook insta linkedin twitter mais j'ai oublié le nom, de toute manière c'est illégal (la vraie illégalité pas comme les torrents)

Source demandée pour les deux affirmations s'il te plaît.

https://www.indiatimes.com/technology/news/creepy-face-recognition-ai-lets-you-check-if-your-girlfriend-has-made-a-sex-tape-or-porn-video-368265.html
j'ai viens tout juste de retrouver ça

edit : j'ai pas eu le temps de lire l'article mais je suis certains que c'est lui, de base le truc n'était pas accessible et ne le sera pas de si tôt

Cool, merci d'avoir pris le temps de chercher. :oui:
Bon apparemment il n'a jamais rien prouvé ni rien publié, mais oui ça semble être un projet similaire.

Concernant l'illégalité, je pense que ça dépend surtout de l'usage qui en est fait. :question:
Les vidéos sont de toutes façon accessibles publiquement, et il n'y aura pas d'identification "officielle" d'une personne.
Au pire la database restera privée : ce sont juste des nombres (qui caractérisent un visage).
À voir. :(

il y avait bien deepnude qui a cassé internet y'a 2 ou 3 ans, on est pas très loin d'arriver à faire ce que tu veux, il y aura obligatoirement une fuite d'un logiciel similaire qui une fois modifié fera en sorte de concrétiser ce que prétends ce chinois.

Yep, deepnude c'est un autre débat encore. :noel:
En soit, dans mon cas, le logiciel est bidon, le plus important et long à récupérer, c'est la base de donnée.
Alors que deepnude pour le coup, t'as besoin de 3 photos Facebook et tu peux générer des fakes... :peur:

tu recup ou les datas pour l'ia ? c'est là ou je me demande comment tu peux entrainner l'ia sans avoir de gros moyens derrière, c'est un sujet intéressant tout de même, on reste dans l'hypothétique.

Déjà faut différencier détection et identification.

La détection ça se fait très simplement, il y a des centaines d'implémentation existantes pour détecter un visage dans une image, y compris certaines intégrées dans OpenCV.
L'identification c'est un peu plus délicat. J'ai pas regardé de très près l'état de l'art. Mais j'imagine qu'il doit exister des datasets open-source qui font suffisament bien le taff ( https://paperswithcode.com/task/face-identification ).

Dans un 1er temps de toute manière, je fais uniquement de la détection. Je stocke les image, et dans un deuxième temps je pourrais y appliquer mes algos d'identification (voire en comparer plusieurs, une fois que j'ai la DB des images ce sera plus simple).

Ok merci je comprends mieux.

Au pire afin d'éviter des problèmes avec la loi, je te propose de faire un logiciel de reconnaissance faciale pour youtube à relier à instagram/twitter/facebook/linkedin.

Oui bien vu. C'est ce que je vais faire. Je donne une structure globale pour identifier des visages sur différents types de contenus (vidéos youtube, image instagram, xxx éventuellement...).
Mais je ferai proposerai pas d'identification inter-platforme publiquement je pense pas.

oracleDissou5
2021-08-02 23:55:16

Moi j'ai envie de faire un bot qui affiche publiquement sur twitter à chaque fois qu'un député n'est pas à l'assemblé et son excuse pour ne pas y être :hap:

IngesclaveFou
2021-08-02 23:57:48

Le 02 août 2021 à 23:55:16 oracleDissou5 a écrit :
Moi j'ai envie de faire un bot qui affiche publiquement sur twitter à chaque fois qu'un député n'est pas à l'assemblé et son excuse pour ne pas y être :hap:

C'est pas une mauvaise idée, ça doit pouvoir se faire sans trop de difficulté si t'as la bonne source pour connaître l'absence d'un député. :noel:

IngesclaveFou
2021-08-03 00:01:30

#!/usr/bin/env python
import face_recognition
import cv2
import youtube_dl
import ffmpeg
import argparse
import tempfile
from pathlib import Path


def main():
parser = argparse.ArgumentParser()
parser.add_argument("url", help="url of the video to download and where to detect faces")
args = parser.parse_args()

with tempfile.TemporaryDirectory() as tempdir:
video_path = f"{tempdir}/test.mp4"

params = {"outtmpl": video_path, "restrictfilenames": True}

with youtube_dl.YoutubeDL(params) as ydl:
ydl.download([args.url])

stream = ffmpeg.input(video_path)
out, _ = (
stream.filter("select", "gte(n,{})".format(1825))
.output("pipe:", vframes=1, format="image2", vcodec="mjpeg")
.run(capture_stdout=True)
)

image_path = f"{tempdir}/test.jpg"

with open(image_path, "wb") as file:
file.write(out)

image = face_recognition.load_image_file(image_path)
face_locations = face_recognition.face_locations(image)

image = cv2.imread(image_path)

print("Faces count: {}", len(face_locations))

for i, (top, right, bottom, left) in enumerate(face_locations):
face = image[top:bottom, left:right]
cv2.imwrite(f"face_{i}.jpg", face)


if __name__ == "__main__":
main()

https://image.noelshack.com/fichiers/2021/31/1/1627940702-image.png

C'est cool ce qu'on peut faire avec 50 lignes de Python. :hap:

Allez bonne nuit. :sleep: :noel:

Infos
Gestion du forum

contact@geevey.com

API disponible. Utilisez le paramètre "api" en GET, peu importe le contenu, sur une page du site.

Notes

    Partenaire: JVFlux
    Ce site n'est pas associé à Jeuxvideo.com ou Webedia. Nous utilisons seulement des archives publiques.
    Il est inutile de me spammer par e-mail pour supprimer un topic. Au contraire, en conséquence, je mettrais votre topic dans le bloc ci-dessous.
Non-assumage
    Personne n'a pas assumé de topic pour le moment.