Виджет Toxic and Abusive Text Detector — позволит проверить любой текст на наличие токсичных смыслов.
Виджет проверяет на наличие: оскорблений, непристойностей, ненависти на почве идентичности или откровенно сексуальные высказывания.
Виджет работает без интернета и ничего не отправляет в интернет. В виджет встроена ML-модель, которая обучена на ~2 миллионах комментариев, помеченных на токсичность.