Toxic and Abusive Text Detector « Сайт по фигме, но автор отношения к ним не имеет! Not affiliated with Figma
Это не официальный сайт Figma / This is not the official site of Figma

Toxic and Abusive Text Detector

установить виджет для Фигмы Toxic and Abusive Text Detector

Виджет Toxic and Abusive Text Detector — позволит проверить любой текст на наличие токсичных смыслов.

Виджет проверяет на наличие: оскорблений, непристойностей, ненависти на почве идентичности или откровенно сексуальные высказывания.

Виджет работает без интернета и ничего не отправляет в интернет. В виджет встроена ML-модель, которая обучена на ~2 миллионах комментариев, помеченных на токсичность.

Разработчик: Max Tcvetkov

Виджеты из той же категории