Интеллектуальная технология преобразования текста в речь может использовать странное вирусное явление в социальных сетях, в онлайн-сообществах: люди, голосующие за информацию и за истории в Интернете, почти все они боты (Робот, бот, www-бот, интернет-бот - программа выполняющая автоматические действия по заданному алгоритму или по расписанию ). Исследователи говорят, что их ИИ (ИИ - искусственный интеллект) создавал фальшивый контент, который рос в десятки тысяч раз быстрее и длиннее, чем боты, которых считают фальшивым материалом.
В статье, опубликованной в журнале академии наук, исследователи показывают, что ИИ может генерировать новостные сообщения, доставляемые с помощью текста, со скоростью, в десять раз превышающей скорость ботов, - потому что он использует искусственный интеллект. В целом, ИИ выпускал различную информацию и новостные сюжеты, которые обычно охватывали более 1200 слов и использовали уникальное форматирование. И это создало заголовки еще большей длины, в среднем около 100 слов. Последнее - то, что было бы довольно трудно для ботов придумать. Традиционные спам-фрагменты, то есть анонимные посты и ссылки, имеют свой собственный стиль, а иногда они содержат устаревшую информацию.
Кроме того, боты, как правило, прибегают к украшениям. «На ранних этапах публикации новостей определение того, какие социальные элементы и конкретный контент являются надежными, является сложным и субъективным делом», - соавтор исследования. «Наша работа показывает, что персонализированный поиск по ключевым словам может быстро установить такие определения».
Эта статья показывает, что ИИ разработал новостной контент без каких-либо ботов в своей системе. Но ИИ все же пришлось изучить десятки историй, чтобы найти наиболее подходящие для интерпретации. Команда использовала методы машинного обучения для определения ключевых слов в сайтах, постах и включенных в твиты. Затем они изучили содержание историй, размещенных на сайте социальной сети Twitter до и после алгоритма, и отобрали статьи из базы данных, насчитывающей более 6 миллиардов твитов. Проанализировав опубликованные и ретвиты статей, ИИ правильно определил около 5000 новостей в Твиттере и 4500 в Facebook. В конце концов, ИИ генерировал заголовки, которые освещали статьи с похожими статьями. Вместо использования ботов ИИ использовал высокоточный алгоритм, который анализировал твиты большого числа людей, чтобы ИИ мог более точно идентифицировать важные истории.
«Наш поисковый ИИ был создан человеком, наш алгоритм не был управляемым человеком. Хотя ИИ был создан человеком, наш алгоритм тщательно контролировался людьми для обеспечения точности» - сказал соавтор.
В документе конкретно обсуждаются рекомендации по применению ботов к истории и определению, где создавать контент и как обеспечить точность статьи. Хотя ИИ не указывал, как классифицировать истории на «новости» или «твиты», он информировал пользователей о статьях, которые они должны интерпретировать как новости. Например, боты превратят вопрос в трендовую тенденцию, если по данным узнают, что это главная тема в Twitter. Все это может быть хорошо, если вы рекламодатель, но команда исследователей утверждает, что автоматизированный контент создает ложные новости и ведет к определенным выводам.
«Мы обнаружили, что боты статистически менее надежны в принятии социально-экономических определений (например, дохода), предполагая, что боты менее надежны в манипулировании социальным контентом», - пишут исследователи. «Мы можем лучше понять, как боты могут вводить пользователей в заблуждение и помочь им лучше понимать содержание новостей». «Мы также увидели, что, глядя на социальный контент, алгоритмы ИИ могут легче определять консенсусный рейтинг новостного контента». «Они также используют более точные статистические методы для оценки достоверности новостей» - говорят исследователи.
Автор: Денис 27 лет, город Новосибирск.
Фото автора: