TikTok сократил сотни сотрудников отдела модерации контента в Великобритании, заменив их системами искусственного интеллекта. Об этом сообщает The Wall Street Journal.
Сокращения коснулись команды из 2500 человек, работающей в Британии, а также сотрудников из Южной и Юго-Восточной Азии. Точное число уволенных не раскрывается, однако источники издания уточняют, что речь идет о сотнях специалистов.
В компании отмечают, что сегодня более 85% контента, нарушающего правила платформы, выявляется и удаляется алгоритмами. Переход на автоматизацию — часть общей тенденции среди крупнейших соцсетей, таких как Meta (признана экстремистской и запрещена в России) и X (бывший Twitter).
Ранее TikTok уже сокращал команды модераторов: в конце 2024 года 500 человек были уволены в Малайзии, а в июле профсоюз ver.di сообщил о замене примерно 150 сотрудников в берлинском офисе.
Сокращения в Британии произошли вскоре после вступления в силу закона о безопасности в интернете (Online Safety Act), который обязывает соцсети эффективнее защищать несовершеннолетних от вредного контента. За нарушение требований онлайн-платформы могут быть оштрафованы на сумму до 10% от глобальной выручки.