Исследование выяснило, почему YouTube предлагает нежелательный контент

Исслeдoвaниe эффeктивнoсти рaбoты aлгoритмoв YouTube пoкaзaлo, чтo oни рeкoмeндуют нeжeлaтeльный кoнтeнт.

Oб этoм гoвoрится нате сайте Mozilla Foundation, передает Укринформ.

Mozilla провела исследования с через RegretsReporter — расширение браузера с открытым кодом. Штат(ы) добровольно передавали свои данные и предоставили исследователям подступы к пулу сохранившихся рекомендательных данных YouTube.

Наравне выяснилось, люди из неанглоязычных стран чаще сталкиваются с оскорбительным контентом в YouTube, а в рекомендациях появляются видео с языком ненависти, жестокости и мошенничеством.

Волонтеры жаловались модераторам платформы сверху видеоролики и из-за распространения паники про коронавируса, и из-за политической дезинформации, и с-за несоответствующих «детских» мультфильмов.

Сильнее 71 процента всех видеозаписей, в которые пожаловались добровольцы, были динамично рекомендованы собственным алгоритмом YouTube. Вот-вот почти 200 таких видеороликов были изъяты с платформы, в волюм числе и несколько таких, которые YouTube считал нарушителями собственной политики. Сии видео имели общее количество просмотров 160 млн, говорится в отчете Mozilla.

«Наше обзор подтверждает, что YouTube не не более чем размещает, но и активно рекомендует видео, которые нарушают собственную политику. Без дальних разговоров мы также знаем, что людям в англоязычных странах, ходу всего, наибольший вред был причастный от алгоритма рекомендаций YouTube, которые безграмотный контролируется », — отметил старший руководитель по вопросам защиты интересов Mozilla Коньяк Геркинк.

Комментарии и пинги к записи запрещены.

Комментарии закрыты.