
Profanity & Toxicity Detection
0 Favoris
La détection de la grossièreté et de la toxicité pour le contenu généré par l'utilisateur est un ensemble de modèles sémantiques dédiés au contenu toxique et agressif. Il a été créé pour différents types de contenu généré par l'utilisateur (commentaires, forums, tweets, fb, etc.).
La détection de la grossièreté et de la toxicité pour le contenu généré par l'utilisateur est un ensemble de modèles sémantiques dédiés au contenu toxique et agressif. Il a été créé pour différents types de contenu généré par l'utilisateur (commentaires, forums, tweets, fb, etc.).
Modèle de tarification:
price unknown / product not launched yet
Top 5
Tools of the DAY