Facebook тестирует ИИ, который сможет автоматически банить «нездоровые» комментарии | Москва.ру

Facebook тестирует ИИ, который сможет автоматически банить «нездоровые» комментарии

В мире
Телефон. Фото: "Москва.ру"/Мария Добрыгина

Компания Facebook начала тестировать искусственный интеллект (ИИ), который поможет быстрее предотвращать конфликты в социальных сетях.

Об этом 17 июня сообщает издание канала CNN. Очень часто обычные обсуждения в комментариях на просторах интернета могут выйти из-под контроля. Поэтому компания Facebook разработала ИИ, способный автоматически «пометить» оскорбительный контент ярлыком «conflict alerts» («оповещение о конфликте») на страничках в социальной сети. Эти оповещения будут приходить напрямую администраторам пабликов и групп, которые и будут «подчищать» комментарии.

Новый проект призван помочь администраторам сообществ, пабликов и групп по интересам модерировать огромное количество комментариев и постов, очищая их от «нездорового» контента.

Кроме того, «бан» не будет распространяться на комментарии, которые касаются политики, вакцинации и культурных различий.

Ранее «Москва.ру» писала о том, что канал NBC закрыл проект «Манифест» после третьего сезона, несмотря на хорошие рейтинги. Новость о закрытии проекта огорошила как зрителей и фанатов телесериала, так и его создателей.

Рейтинг
Москва.ру