Инструмент использует технологию машинного обучения для распознавания "токсичных" формулировок: оскорблений, угроз, домогательств. Набор триггеров выбирается самостоятельно. Каждый комментарий получает оценку по 100-балльной шкале, чем выше оценка тем оскорбительнее комментарий. Это значительно упрощает модерацию достаточно только отфильтровать обсценные высказывания и отклонить их. Со стороны пользователя предусмотрена сортировка по шкале оскорбительности, чтобы не сталкиваться с такими высказываниями. Инструмент также можно внедрить в поле написания комментария тогда пользователь сразу будет знать оценку оскорбительности.
Доступно для русского, английского, китайского, французского, немецкого и других языков.