new-star
avatar image $

Profanity & Toxicity Detection

0 Favoris
(0 | 0 voted)
La détection de la grossièreté et de la toxicité pour le contenu généré par l'utilisateur est un ensemble de modèles sémantiques dédiés au contenu toxique et agressif. Il a été créé pour différents types de contenu généré par l'utilisateur (commentaires, forums, tweets, fb, etc.).

La détection de la grossièreté et de la toxicité pour le contenu généré par l'utilisateur est un ensemble de modèles sémantiques dédiés au contenu toxique et agressif. Il a été créé pour différents types de contenu généré par l'utilisateur (commentaires, forums, tweets, fb, etc.).

Modèle de tarification:

price unknown / product not launched yet
Light
Neutral
Dark
Profanity & Toxicity Detection
Profanity & Toxicity Detection
Profanity & Toxicity Detection
Copy embed code

Découvrez des outils d'IA similaires.