L’IA qui supprime les commentaires haineux

Bodyguard : une application française qui protège des commentaires haineux sur YouTube et Twitter

Créée par un jeune développeur français de 22 ans, Bodyguard protège ses utilisateurs des commentaires haineux sur YouTube et Twitter. L’application fait de plus en plus parler d’elle et semble avoir trouvé son public, notamment chez les YouTubers qui sont désormais plus d’un millier à l’utiliser au quotidien. Avec 97% d’utilisateurs satisfaits et plus de 17 000 commentaires bloqués, Bodyguard semble être un rempart efficace contre la haine sur internet. Pour en savoir plus sur le service et son fonctionnement, nous avons posé quelques questions à son créateur : Charles Cohen.

Comment a émergé l’idée de créer cette application ?

Je suis né avec la génération YouTube, un site que je fréquente depuis mes 10 ans (âge auquel j’ai commencé le développement). YouTube est un site où le cyber-harcèlement est présent depuis ses débuts et fait de plus en plus de ravages.(fermeture de chaîne, etc…). Un jour je suis tombé sur un article qui parlait du suicide d’une jeune fille suite à un cyber-harcèlement très agressif. J’ai fait quelques recherches pour finalement me rendre compte qu’il y avait beaucoup de cas similaires. Ensuite, j’ai commencé à chercher les solutions qui étaient présentes pour lutter efficacement contre ce problème.

J’ai toujours voulu développer une startup basée sur cette technologie. C’était le moment idéal d’autant plus qu’elle répondait à un vrai besoin. J’ai alors pris le pari et le risque de me lancer dans le développement d’une IA. (sans aucune notion d’IA). Je savais qu’elle devait avoir un taux d’erreur/faux positif très très faible au risque de perdre immédiatement mes utilisateurs au bouche à oreille, et de catégoriser Bodyguard comme « censeur ».

Recherche
Réseaux-Sociaux
Newsletter