Естественный текст: математические методы атрибуции

В статье предложено два алгоритма фильтрации некачественных текстов. Основные методы решения задачи фильтрации некачественных текстов – статистические; их базирование на вычислении различных частотных характеристик текста. Графовая модель текста.

Рубрика Иностранные языки и языкознание
Вид статья
Язык русский
Дата добавления 14.02.2022
Размер файла 1,4 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Естественный текст: математические методы атрибуции

Владимир Валентинович Попов

Волгоградский государственный университет, г. Волгоград, Россия

Татьяна Владимировна Штельмах

Волгоградский государственный университет, г. Волгоград, Россия

Аннотация

В статье предложено два алгоритма фильтрации некачественных текстов. Первый алгоритм основан на том, что частота появления n-грамм в качественном тексте подчиняется закону Зипфа, а в случайно генерированных текстах данный закон перестает действовать. Сравнение частотных характеристик двух типов текстов позволяет делать выводы относительно качества исходного текста. Второй алгоритм основан на сравнении скорости появления новых слов в текстах. В качественном тексте эта скорость, как правило, неравномерна, а в случайных текстах неравномерности нивелируются, что дает возможность обнаруживать некачественные тексты. текст фильтрация некачественный

Основные методы решения задачи фильтрации некачественных текстов - статистические. Они базируются на вычислении различных частотных характеристик текста. В отличие от модели "мешка слов", не учитывающей порядок следования слов в тексте, графовая модель текста (в ней вершинами являются слова или словоформы, а ребрами - пары слов), а также модели со структурами более высокого порядка, в которых используются частотные характеристики я-грамм при п > 2, позволяют учитывать взаимное расположение пар и троек слов в какой-либо общей части текста: в одном предложении или одной я-грамме.

Ключевые слова: естественный текст, псевдотекст, фильтрация текстов, закон Зипфа, я-граммы, скорость появления новых слов, "мешок слов", графовая модель текста.

NATURAL TEXT: MATHEMATICAL METHODS OF ATTRIBUTION1

Vladimir V. Popov

Volgograd State University, Volgograd, Russia

Tatyana V. Shtelmakh

Volgograd State University, Volgograd, Russia

The article proposes two algorithms for substandard texts filtering. The first of these is based on the fact that the frequency of n-grams occurrence in a quality text obeys the Zipf law, and when the words of the text are rearranged, the law ceases to act. Comparison of the frequency characteristics of the source text with the characteristics of the text resulting from the permutation of words enables researchers to draw conclusions regarding the quality of the source text. The second algorithm is based on calculating and comparing the rate new words appear in good quality and randomly generated texts. In a good text, this rate is, as a rule, uneven whereas in randomly generated texts, this unevenness is smoothed out, which makes it possible to detect low-quality texts.

The methods for solving the problem of substandard texts filtering are statistical and are based on the calculation of various frequency characteristics of the text. As compared to the "bag of words" model, a graph model of the text, in which the vertices are words or word forms, and the edges are pairs of words, as well as models with higher order structures, in which the frequency characteristics of n-grams are used with n > 2, takes into account the mutual disposition of word pairs, as well as triples of words in a common part of the text, for example, in one sentence or one n-gram.

Key words: natural text, pseudo-text, text filtering, Zipf's law, n-grams, the rate of appearance of new words, "bag of words" model of the text, graph model of the text.

Введение

Интенсивное развитие информационных технологий способствует качественному изменению процессов порождения текстов, что выводит на первый план вопрос о разграничении естественных текстов и текстов, созданных при помощи различных программных средств. В связи с большим количеством текстового материала, функционирующего в пространстве электронной коммуникации, возникает задача разработки способов автоматической идентификации "случайных" текстов, которая должна осуществляться с опорой на количественный анализ текстовых характеристик.

В настоящее время применение количественных методов в языкознании аналогично их использованию в других естественных и социальных науках. Поскольку количественные показатели несут определенную информацию о самих текстах, одной из важнейших прикладных лингвистических задач становится моделирование топика коллекции текстов для систематизации документов и их использования в образовательных, маркетинговых и иных целях [Bakalov et al., 2012; Wallach, 2006; Yao, Mimno, McCallum, 2009; Zeng et al., 2012].

Квантитативные методы широко применяются для описания и классификации текстов, например, при установлении авторства анонимных текстов. Это связано с тем, что большинство двусторонних единиц и конструкций языка могут служить различению текстов. Доказано, что части речи играют немаловажную роль в формировании функциональных стилей языка. Статистические различия между ними, а также между жанрами составляют основу корпусной стилистики [McIntyre, Walker, 2019].

Количественные методы используются для идентификации индивидуального стиля автора. Учитывая важность данных статистического материала, еще Б.Н. Головин ставил ряд важных вопросов, требующих творческого решения: 1. Связаны ли показываемые статистикой особенности функционирования частей речи, предложений и их членов в речи писателей некоторыми внутренними зависимостями, то есть носят ли они системный характер? 2. Стоят ли за различиями активности частей речи, членов предложений и предложений у разных писателей устойчивые различия художественного содержания их произведений? 3. Следует ли думать, что в необследованных фрагментах текста (не вошедших в выборки) активность изучаемых элементов будет такой же, как и в выборках? [Головин, 1970, с. 9]. Как отмечал исследователь, активность частей речи в произведениях проявляется регулярно, следовательно, в разных местах разных произведений она закономерно характеризует стиль того или иного автора.

Итак, статистика предоставляет большие возможности для систематического изучения языкового функционирования и развития.

Ключевым моментом, который объединяет все квантитативные методики анализа текста, является то, что в их основе лежат представления о некоторой единице анализа. Ее определение крайне важно, поскольку она выступает своего рода аналогом исследуемых (но неконтролируемых) переменных в эксперименте. Под единицей, вслед за Л.С. Выготским, мы подразумеваем "такой продукт анализа, который в отличие от элементов обладает всеми основными свойствами, присущими целому, и который является далее не разложимыми живыми частями этого единства" [Выготский, 1999, с. 14].

Однако их трактовка при конкретном методе анализа текста может быть принципиально различной. Так, под единицей лингвистического анализа текста понимаются инварианты различных лингвистических моделей описания языка, соотносящиеся с языком или языковым стандартом (морфема, фонема, предложение, словосочетание, высказывание и др., понимание которых в разных лингвистических направлениях может различаться). Единицами анализа выступают коллокации, которые в отечественной лингвистике понимаются как несвободные сочетания, не относящиеся к идиомам: с одной стороны, ключевое слово этих сочетаний может появляться в контексте с разными языковыми единицами, с другой стороны, эти единицы (то есть контекст ключевого слова) можно перечислить в виде закрытого ("полузакрытого") списка (ср., напр., работы Л.Н. Иорданской, И.А. Мельчука и их последователей по изучению лексических функций и моделей управления [Иорданская, Мельчук, 2007]). В последние годы применение компьютерных программ обработки большого текстового материала позволяет использовать другие сущности в качестве единиц текстового анализа, к которым относятся, например, текстовые п- граммы. Они необходимы для решения разнообразных прикладных лингвистических задач, в частности автоматической категоризации и классификации текстов [Саупаг, ТгепЫе, 2001].

Целью нашей работы является поиск количественных критериев, позволяющих автоматически распознать естественный текст и отличить данный текст от созданного при помощи определенных алгоритмов порождения текста. Единицей анализа избрана "-грамма.

Прежде чем приступить к анализу языкового материала, обратимся к дефиниции понятия "текст". Вслед за И.Р. Гальпериным мы считаем, что текст - это "произведение речетворческого процесса, обладающее завершенностью, объективированное в виде письменного документа, литературно обработанное в соответствии с типом этого документа, произведение, состоящее из названия (заголовка) и ряда особых единиц (сверхфразовых единств), объединенных разными типами лексической, грамматической, логической, стилистической связи, имеющее определенную целенаправленность и прагматическую установку" [Гальперин, 2006, с. 18]. В качестве объекта исследования мы рассматриваем текст в целом, а не его составляющие, разделяя мнение А.А. Леонтьева о том, что сложные закономерности формирования целостности и завершенности текста участвуют в формировании его смыслового аспекта: "В противоположность связности цельность есть характеристика текста как смыслового единства, как единой структуры, и определяется на всем тексте" [Леонтьев, 1979, с. 12]. Кроме того, мы изучаем тексты без ограничения на объем, обладающие характеристиками отдельнооформленности, связности и цельности (о признаках текста см.: [Мурзин, Штерн, 1991]). Такие тексты в данной работе мы будем называть естественными.

Если на естественном языке сформирована некоторая последовательность слов, то возникает вопрос о реализации указанных выше фундаментальных свойств текста. Назовем псевдотекстом любую последовательность слов естественного языка, полученную на основе некоторой вероятностной модели сочетания слов в тексте. При этом считаем, что псевдотекст не получен многократным дублированием одной из своих частей. В качестве лексической единицы текста будем рассматривать слово в тексте (словоформу), а список слов будет образовывать словарь текста. Псевдотексты получим как результат случайной перестановки слов естественного текста, тогда распределение вероятностей слов в псевдотексте останется неизменным. Статистические модели текста в связи с необходимостью его автоматической обработки, создания машинных алгоритмов вводятся и обосновываются, в частности, в [Пиотровский, 1975].

В части I данной статьи текст рассмотрен в статическом состоянии (оно, по мнению Л.А. Новикова, соответствует тексту как "результату речемыслительной деятельности" [Новиков, 1983]), в части II - в динамическом состоянии, то есть в процессе его порождения, при этом не затрагиваются вопросы его психологического восприятия и понимания.

Исследования естественных текстов и псевдотекстов проводим на основе графовой модели, описанной в [Григорьева и др., 2017]. Граф образуется как совокупность двух множеств: множество вершин - слова текста, множество ребер - пары слов, находящихся в одной "-грамме. Каждому ребру приписывается вес - количество "-грамм, содержащих эту пару слов.

Структура "-грамм текста

Пусть имеется некоторый текст D. Выберем целое число " > 2. Под п-граммой будем понимать последовательность из " подряд идущих слов одного текста (о таком толковании "-граммы см.: [Бузикашвили, Самойлов, Крылова, 2000]). Составим список всех "грамм текста D и для каждой "-граммы подсчитаем ее частоту. Расположим "-граммы в порядке убывания их частот, полученный ряд значений назовем вектором частот "-грамм. Компьютерные эксперименты показывают, что "-граммы естественного (связного) текста подчиняются аналогу закона Зипфа, то есть имеются "-граммы с достаточно высокой частотой, а затем их частота быстро убывает. Отметим, что, как правило, частоты псевдотекста небольшие и убывают сравнительно медленно. Например, вектор частот 3-грамм естественного текста: (15, 14, 13 13, 12, 12, 10, 9, 9, 8, 8, 8, 7, 7, 7, 7, 7, 7, 6, 6...); псевдотекста: (4, 3, 3, 2, 2, 2, 2, 2,...).

Для текста D зафиксируем целые числа h и m, где h, m > 2. Пусть D1, D2, ..., Dm - тексты, полученные на шаге 1, 2, ..., m перемешивания D. Обозначим через Sum(D), Sum(D), 1 < i < m суммы частот h первых "грамм (то есть "-грамм с наибольшими частотами) соответствующих текстов. Обозначим через MS среднее арифметическое величин Sum(Dj), Sum(D2), ..., Sum(Dm):

Отметим, что величина 0(D) зависит не только от документа D и параметров n, h и m, но и от того, какие перестановки списка слов документа D применялись при формировании документов Dj, D2, ..., Dm. Если эти перестановки выбираются случайно, то при повторном применении алгоритма будут получаться различные, хотя и достаточно близкие между собой значения. Так, при трех запусках компьютерной программы с параметрами n = 3, h = 20 и m = 6 могут быть получены значения величины 0, равные 1.775, 1.738 и 1.753 соответственно. Для реализации алгоритма исследований нам необходимо зафиксировать набор возможных параметров: вектор а = (n, i j,k, m, h), влияющих на частоту n- грамм и величины Sum(D), MS, и 0(D): n - число слов в одной n-грамме; i - следует ли рассматривать n-граммы лексем (при i = 1) или словоформ (i = 0);

j - надо ли сортировать слова в каждой n-грамме по алфавиту j = 1) или не надо j = 0); k - минимальная длина учитываемых слов;

m - число формируемых псевдотекстов; h - число учитываемых n-грамм с наибольшей частотой.

Исследования проводились на коллекции из 60 естественных текстов, число слов в которых насчитывается от 485 до 460326.

Анализ коллекции естественных текстов

Упорядоченные по алфавиту, то есть без учета порядка слов, наиболее частотные 3-граммы из одного текста получаем, например, такие:

- словоформные: как после того, для того чтобы, такое что это, дело том что, знает черт что, все что это, было как слышно, несколько секунд через, кроме того что, том убедился что, время некоторое через, было видно что;

- лексемные: как после тот, для тот чтобы, дело тот что, тот убедиться что, такой что это, быть мочь это, весь что это, она тот что, быть как слышный, несколько секунда через, мысль тот что, кроме тот что.

Неупорядоченные по алфавиту словоформы этого же текста: после того, для того чтобы, дело том что, черт знает что, слышно было как, через несколько секунд, что это такое, через некоторое время, кроме того что, через несколько минут, убедился том что, позвольте вас спросить.

В результате расчетов 0 сформированы таблицы определенного вида, которые продемонстрируем на таблицах 1 и 2 для одного из текстов коллекции при а = (3, 0, 1, 3, 12, 200).

В ходе исследования всей коллекции получены следующие свойства 0 при а = (п,і,і^,т,И), m = 3, h = 200:

1. Для п = 2 количество естественных текстов, близких по расчетным показателям 0 к псевдотекстам, значительно выше, чем для п = 3 с такими же значениями остальных параметров в а. Поэтому далее рассматриваем п = 3.

2. Значения 0 не превышали значения 2 для всех псевдотекстов (расчеты в таблицах типа 2) при различных вариантах і, ] и k = 3 вектора параметров а, кроме а = (3, 1, 1, 3, 12, 200) (не выше 2.7).

3. Значение минимума 0 не ниже значения 1 для всех естественных текстов (расче

4. ты в таблицах типа 1) при различных вариантах /, ] и k = 3 вектора параметров а.

5. Значение максимума 0 не ниже значения 2 для всех естественных текстов (расчеты в таблицах типа 1) при а = (3, 0, 0, 3, 12, 200).

6. Длина диапазона значений 0 (размах

0) при а = (3, 0, 1, 3, 12, 200) и а = (3, 0, 0, 3, 12, 200) для естественного текста во всех 60 случаях больше длины диапазона значений его же псевдотекста. При этом минимальное значение 0 (при указанных параметрах) для большинства из рассмотренных текстов строго больше, чем максимальное значение этой же величины для соответствующего псевдотекста (кроме 5 из 60 для первого вектора параметров и 1 из 60 для второго вектора параметров).

7. При а = (3, 0, 0, 3, 12, 200) наименьший размах 0 естественных текстов равен 0.927 и только 2 псевдотекста из 60 имеют размах 0 больше этого минимума (1.059 и 0.996), что продемонстрировано на рисунке 1. У 56 из 60 естественных текстов размах 0 больше 1.059 (от 1.24 до 55.797), и они могут идентифицироваться представленным методом как естественные. А значит, размах 0 также может служить отличительным признаком псевдотекстов.

При рассмотрении лексемных "-грамм условия 4 и 5 нарушаются для 30 из 60 текстов коллекции, что продемонстрировано на рисунке 2.

Таблица 1

Значения величины 0(0) при различных т и h (D - естественный текст)

m = 1

m = 2

m = 3

m = 4

m = 5

m = 6

m = 7

m = 12

h = 1

3.75

5.0

5.0

5.0

4.411

4.285

4.375

4.285

h = 2

4.142

5.272

5.437

5.272

4.833

4.702

4.720

4.578

h = 3

4.2

5.25

5.478

5.419

5.0

4.941

4.9

4.893

h = 100

2.558

2.584

2.588

2.587

2.573

2.573

2.571

2.573

h = 200

2.283

2.341

2.313

2.328

2.328

2.357

2.364

2.389

Таблица 2

Значения величины 0(0) при различных т и h (О - псевдотекст)

m = 1

m = 2

m = 3

m = 4

m = 5

m = 6

m = 7

m = 12

h = 1

1.5

1.2

1.125

1.2

1.153

1.125

1.05

1.058

h = 2

1.5

1.2

1.125

1.2

1.153

1.125

1.076

1.107

h = 3

1.333

1.066

1.0

1.066

1.052

1.021

0.982

1.010

h = 100

1.01

1.0

0.996

1.0

1.0

0.997

0.996

0.998

h = 200

0.985

0.954

0.968

0.982

0.988

0.976

0.977

0.971

Рис. 1. Значения размаха 9, упорядоченные по его возрастанию, для 60 естественных текстов и псевдотекстов при а = (3, 0, 0, 3, 12, 200)

Рис. 2. Значения размаха 9, упорядоченные по его возрастанию, для 60 естественных текстов и псевдотекстов при а = (3, 1, 1, 3, 12, 200)

Не идентифицированные как естественные по условию 6 тексты (4 из 60, то есть точность 93 %) имеют max 0 = 2, то есть не проходят так же условие 2. Такого вида тексты требуют дополнительных исследований. Отметим, что в рассматриваемой коллекции они имеют наименьший объем, не более 6000 слов. С ростом объема текста размах 0, как правило, увеличивается. Но этот факт не является однозначной закономерностью, что видно по рисунку 3.

Приведенные результаты позволяют предложить следующий алгоритм, основанный на вычислении величины u(D), который позволяет разделять тексты на "хорошие" (близкие по свойствам к естественным текстам) и "подозрительные" (близкие по свойствам к псевдотекстам). Пусть D - некоторый текст, подлежащий исследованию.

Алгоритм 1

1. Полагаем n = 3, i = 0, j = 0, k = 3.

2. Для каждого m от 1 до 10 и каждого h от 1 до 100 вычисляем величину 0mh = 0(D) для вектора параметров а = (m, i, j, k, m, h).

3. Если все величины 0m h, найденные в пункте 2, удовлетворяют неравенствам: max 0m,h >2, то считаем, что D - "хороший" текст.

4. Если max 0mh < 2, то считаем, что это "подозрительный" текст.

5. Если 0, = 2, min 0, > 1, то полагаем n = 3, i = 0, j = 1, k = 3 и выполняем пункт 2. Если max(0) < 2, min(0) < 1, то считаем, что D - "подозрительный" текст, иначе считаем, что требуется другой способ исследования.

Рис. 3. Значения размаха 9, упорядоченные по возрастанию количества слов в тексте, для 60 естественных текстов и псевдотекстов при а = (3, 0, 0, 3, 12, 200)

Рассмотрим использование метода п- грамм на примере. На 28-м международном фестивале рекламы, проходившем 15-16 ноября 2018 года (ТВ 3 .ру, 2018), был представлен совместный проект канала ТВ-3, "Яндекс" и С. Лукьяненко, в котором использовали рассказ "Дурной договор", созданный нейросетью, обученной на массиве русской прозы и произведениях Н.В. Гоголя, по сюжету С. Лукьяненко. Результаты исследований этого текста:

- а = (3, 0, 0, 3, 12, 200). Исходный текст: вектор частот (2, 1, 1, 1, 1, 1 ...), тах(0) = 2.0, тіп(0) = 1.004, размах 0 равен 0.996; его псевдотекст: тах(0) = 1.0, тіп(0) = 1.0, размах 0 равен 0. По свойствам 0 текст похож на один из четырех естественных текстов коллекции, не идентифицированных методом п-грамм;

- а = (3, 0, 1, 3, 12, 200). Исходный текст: вектор частот (2, 2, 2, 2, 2, 2, 2, 2, 2, 1, ...), тах(0) = 1.384 < 2, тіп(0) = 0.8 < 1, размах 0 равен 0.584; его псевдотекст: тах(0) = 1.147, тіп(0) = 1.0, размах 0 равен 0.147.

Текст

Gt2

Lt2

Gt2/Lt2

Тексті

19162

6057

3.1636

Текст 2

76996

27391

2.8109

ТекстЗ

95194

21717

4.3833

Т екст 1, псевдотекст

10377

14848

0.6988

Тексті, (первые

15000 слов)

927

2334

0.3971

"Дурной договор"

249

2125

0.1171

Таким образом, в связи с нарушением условий 3 и 4 и достаточно малым размахом 0 рассказ "Дурной договор" можно идентифицировать как текст, близкий по свойствам к псевдотекстам. рядке, в котором они появляются в тексте. Обозначим через L(D,t) начальный отрезок (срез) списка L(D), состоящий из первых t слов, где t не превосходит длины /еп(В) всего списка L(D).

Приводя каждое из слов w е L(D,t) к лемме и учитывая каждую лемму один раз, получим словарь V(D,t) начального отрезка L(D,t) текста D. Обозначим через ^0,0 длину этого словаря, то есть число слов в нем.

Если t = /еп(В),

то V(D,t) будет словарем, который соответствует всему исходному тексту. Обозначим через У(В) этот словарь, а через /еп(У(В)) - его длину, то есть число слов в нем.

В работе [Вакег, 1988] введено понятие скорости (расе), с которой появляются новые слова в авторском тексте. Используя введенные только что обозначения и учитывая тот факт, что расе выражают в процентах, можно записать формулу для вычисления величины расе:

Компьютерные эксперименты показывают, что в естественном тексте скорость появления новых слов неравномерна. Например, эта скорость увеличивается при смене объекта, который описывается в тексте. Далее эта скорость постепенно уменьшается (см. рис. 4). При перемешивании слов текста скорость появления новых слов усредняется, поэтому естественные тексты можно обнаружить, если сравнивать описанные скорости. Проследить указанную закономерность для одного из текстов коллекции (рассматриваемый ниже в расчетах Текст 1) можно на рисунке 4.

В данном разделе будет получена более детальная характеристика поведения функций L(D,t), V(D,t) и ДАО.

Пусть исходный текст D - естественный текст. Формируем псевдотексты D1, D2, ..., Dm, перемешивая слова D случайным образом т раз, т > 2. При каждом целом t, 1 < t < 1еп(Б), обозначим через и = и (Г) среднее арифметическое величин и = Д(Б,Г), / = 1, 2, ..., т, а через 5 = s(t) их среднее квадратическое отклонение:

m = 5) для трех текстов коллекции и текста нейросети:

Проведенные исследования позволяют сделать вывод, что если Б - естественный текст, то Gг 2, как правило, превосходит LГ 2, поэтому отношение Gt2/Lt2 существенно больше 1. Если рассматривать текст Б в его исходном виде и L (Б) - список словоформ, то получаем следующие результаты (см. рис. 5):

1. У 11 из 60 текстов коллекции (18 %) Gt2 / Lt2 < 1 и у 22 из 60 текстов коллекции (37%) GГ 2 / Lt2 < 2.5.

2. Для 5 псевдотекстов из 60 выполнено Gt2 / Lt2 > 1, для одного Gt2 / Lt2 > 2. Для всех псевдотекстов выполнено Gt2 / Lt2 < 2.5.

3. Для двух из четырех естественных текстов, указанных в I разделе статьи, как близкие по свойствам к псевдотекстам, выполнено соотношение 1 < Gt2 / Lt2 < 2, для остальных двух Gt2 / Lt2 < 1, и все четыре текста остаются в группе "подозрительных" текстов.

Если преобразовать текст Б и рассматривать L(D) как список лексем, то получаем следующие результаты (см. рис. 6):

Рис. 4. Изменение скорости появления новых слов (pace) в естественном тексте и псевдотексте

Рис. 5. Значения величины Gt2ILt2 для 60 естественных текстов (часть графика в окрестности значений 2.5 и 1, значения упорядочены по возрастанию) и псевдотекстов в виде списка словоформ

Рис. 6. Значения величины Gt2 / П 2 для 60 естественных текстов (часть графика в окрестности значения 1, значения упорядочены по возрастанию) и псевдотекстов в виде списка лексем

4. Для 8 из 60 текстов коллекции (14 %) выполнено G^2 / < 1.

5. Для всех псевдотекстов выполнено G^2 / Ш < 1.

6. Для двух из четырех естественных текстов, указанных в I разделе статьи как близкие по свойствам к псевдотекстам, выполнено соотношение G^2 / > 2, и эти тексты можно отнести к группе "хороших".

Опишем алгоритм (точность 86 %), основанный на вычислении величин G^2 и Јй, который позволяет разделять тексты на "хорошие" и "подозрительные".

Пусть задан некоторый текст D.

Алгоритм 2

1. Полагаем п = 3 и m = 10.

2. Приводим каждое слово текста D к лемме.

3. Вычисляем для текста D величины G^2 и Ы 2.

4. Если выполнено неравенство G^2 / > 1, то считаем, что D - "хороший" текст.

В противном случае считаем, что это "подозрительный" текст.

В результате применения алгоритмов 1 и 2 из 60 исследуемых естественных текстов в группе "подозрительных" остались два текста (4 %).

Выводы

В работе предложены два алгоритма, которые позволяют разделять тексты на качественные и "случайные". Первый их них основан на том, что для качественных текстов закон Зипфа выполняется как для отдельных слов, так и для "-грамм, а в случайных текстах закон Зипфа продолжает действовать для отдельных слов, но перестает действовать для "-грамм.

Второй алгоритм основан на подсчете скорости появления новых слов. В "хорошем" тексте эта скорость неравномерна. В случайных текстах она усредняется, поэтому оригинальные тексты можно обнаружить, если сравнивать описанные скорости.

Возможности применения обоих алгоритмов зависят от ряда параметров, поэтому в дальнейшем предполагается проведение более объемных компьютерных экспериментов для выбора оптимальных параметров.

Список литературы

1. Бузикашвили Н.Е., Самойлов Д.В., Крылова Г.А., 2000. ^граммы в лингвистике // Методы и средства работы с документами: сб. ст. М. : Едиториал УРРС. С. 91-130.

2. Выготский Л.С., 1999. Мышление и речь. Изд. 5-е, испр. М. : Лабиринт. 352 с.

3. Гальперин И.Р., 2006. Текст как объект лингвистического исследования. 4-е изд. стер. М. : Ком- Книга. 144 с.

4. Головин Б.Н., 1970. Язык и статистика. М. : Просвещение. 190 с.

5. Григорьева Е.Г., Клячин В.А., Помельников Ю.В., Попов В.В., 2017. Алгоритм выделения ключевых слов на основе графовой модели лингвистического корпуса // Вестник

6. Волгоградского государственного университета. Серия 2, Языкознание. Т. 16, № 2. С. 58-67. DOI: https://doi.org/10.15688/ jvolsu2.2017.2.6.

7. Иорданская Л.Н., Мельчук И.А., 2007. Смысл и сочетаемость в словаре. М. : Языки славянских культур. 672 с.

8. Леонтьев А.А., 1979. Понятие текста в современной лингвистике и психолингвистике // Психолингвистическая и лингвистическая природа текста и особенности его восприятия / под ред. Ю.А. Жлуктенко, А.А. Леонтьева. Киев: Вища школа. С. 7-17.

9. Мурзин Л.Н., Штерн А.С., 1991. Текст и его восприятие. Свердловск: Изд-во УГУ 172 с.

10. Новиков А.И., 1983. Семантика текста и ее формализация. М. : Наука. 215 с.

11. Пиотровский Р Г., 1975. Текст, машина, человек. Л. : Наука. 327 с.

12. Bakalov A., McCallum A., Wallach H., Mimno D., 2012. Topic models for taxonomies // Proceedings of the 12th ACM/IEEE-CS joint conference on digital libraries (Washington, DC, USA, June 10-14, 2012). P.237-240. DOI: https://doi.org/10.1145/2232817.2232861.

13. Baker J. C., 1988. Pace: A Test of Authorship Based on the Rate at which New Words Enter an Author's Text // Literary and Linguistic Computing. Vol. 3, no. 1. P. 36-39.

14. Cavnar W., Trenkle J., 2001. N-Gram-Based Text Categorization. URL: https://www.researchgate.net/ publication/2375544_N-Gram-Based_Text_ Categorization.

15. McIntyre D., Walker B., 2019. Corpus Stylistics: Theory and Practice. Edinburgh University Press. 376 p.

16. Wallach H. M., 2006. Topic modeling: beyond bag- of-words // Proceedings of the 23rd international conference on Machine learning (Pittsburgh, Pennsylvania, USA, June 25-29, 2006). Р. 977-984. DOI: https://doi.org/ 10.1145/1143844.1143967.

17. Yao L., Mimno D., McCallum A., 2009. Efficient methods for topic model inference on streaming document collections // Proceedings of the 15th ACM SIGKDD international conference on knowledge discovery and data mining (Paris, France, June 28 - July 01, 2009). Р. 937-946. DOI: https://doi.org/10.1145/1557019.1557121.

18. Zeng Q. T., Redd D., Rindflesch T. C., Nebeker J. R., 2012. Synonym, topic model and predicate-based query expansion for retrieving clinical documents // AMIA. URL: https: // www.ncbi.nlm.nih.gov/pmc/articles/ PMC3540443.

19. ИСТОЧНИК

20. ТВЗ.ру, 2018 - "Нейро-Гоголь" вошел в шорт-лист Red Apple // ТВЗ.ру. URL: https://tv3.ru/post/ luchshaya-innovatsiya-v-reklame (дата обращения: 25.01.2019).

21. REFERENCES

22. Buzikashvili N.E., Samoylov D.V, Krylova G.A., 2000. N-grammy v lingvistike [N-Grams in Linguistics]. Metody i sredstva raboty s dokumentami [Methods and Means of Working with Documents]. Moscow, Editorial URRS Publ., pp. 91-130.

23. Vygotsky L.S., 1999. Myshlenie i rech [Thinking and Speech]. Moscow, Labirint Publ. 352 p.

24. Galperin I.R., 2006. Tekst kak obyekt lingvisticheskogo issledovaniya [Text as an Object of Linguistic Research]. Moscow, KomKniga Publ. 144 p.

25. Golovin B.N., 1970. Yazyk i statistika [Language and Statistics]. Moscow, Prosveshchenie Publ. 190 p.

26. Grigoryeva E.G., Klyachin V.A., Pomelnikov Yu.V., Popov V.V., 2017. Algoritm vydeleniya klyuchevykh slov na osnove grafovoy modeli lingvisticheskogo korpusa [Algorithm of Key Words Search Based on Graph Model of Linguistic Corpus]. Vestnik Volgogradskogo gosudarstvennogo universiteta. Seriya 2, Yazykoznanie [Science Journal of VolSU. Linguistics], vol. 16, no. 2, pp. 58-67. DOI: https:/ /doi.org/10.15688/jvolsu2.2017.2.6.

27. Iordanskaya L.N., Melchuk I.A., 2007. Smysl i sochetaemost v slovare [Meaning and Compatibility in the Dictionary]. Moscow, Yazyki slavyanskikh kultur Publ. 672 p.

28. Leontev A.A., 1979. Ponyatie teksta v sovremennoy lingvistike i psikholingvistike [The Concept of Text in Modern Linguistics and Psycholinguistics]. Psikholingvisticheskaya i lingvisticheskaya priroda teksta i osobennosti ego vospriyatiya [Psycholinguistic and Linguistic Nature of Text and Features of Its Perception]. Kiev, Vishcha shkola Publ., pp. 7-17.

29. Murzin L.N., Shtern A.S., 1991. Teksti ego vospriyatie [The Text and Its Perception]. Sverdlovsk, Izd- vo UGU. 172 p.

30. Novikov A.I., 1983. Semantika teksta i ee formalizatsiya [Text Semantics and Its Formalization]. Moscow, Nauka Publ. 215 p.

31. Piotrovskiy R.G., 1975. Tekst, mashina, chelovek [Text, Machine, Person]. Leningrad, Nauka Publ. 327 p.

32. Bakalov A, McCallum A, Wallach H, Mimno D., 2012. Topic Models for Taxonomies. Proceedings of the 12th ACM/IEEE-CS Joint Conference on Digital Libraries, pp. 237-240.

33. Baker J.C., 1988. Pace: A Test of Authorship Based on the Rate at Which New Words Enter an Author's Text. Literary and Linguistic Computing, vol 3, no. 1, pp. 36-39.

34. Cavnar W., Trenkle J., 2001. N-Gram-Based Text Categorization. URL: https://www.researchgate.net /publication/2375544_N-Gram-Based_Text_ Categorization.

35. Mclntyre D., Walker B. 2019. Corpus Stylistics: Theory and Practice. Edinburgh University Press. 376 p.

36. Wallach H.M. 2006. Topic Modeling: Beyond Bag-of- Words. Proceedings of the 23rd International Conference on Machine Learning (Pittsburgh, Pennsylvania, USA, June 25-29, 2006), pp. 977-984.

37. Yao L., Mimno D., Mccallum A., 2009. Efficient Methods for Topic Model Inference on Streaming Document Collections. Proceedings of the 15th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (Paris, France, June 28 - July 1, 2009), pp. 937-946. DOI: https:// doi.org/10.1145/1557019.1557121.

38. Zeng Q.T., Redd D., Rindflesch T.C., Nebeker J.R., 2012. Synonym, Topic Model and Predicate-Based Query Expansion for Retrieving Clinical Documents. AMIA. URL: https://www.ncbi.nlm.nih.gov/pmc/ articles/PMC3540443.

39. SOURCE

40. "Neyro-Gogol" voshel v short-list Red Apple ["Neuro- Gogol" Was Included in Red Apple Shortlist], 2018. TV3.ru. URL: https://tv3.ru/post/luchshaya- innovatsiya-v-reklame (accessed 25 January 2019).

Размещено на Allbest.ru

...

Подобные документы

  • Факторы речевой организации текста. Характеристика текста как особой речевой единицы. Основные типы текстов. Построение текстов различных стилей. Особенности построения текстов в научном, публицистическом, официально-деловом и художественном стилях.

    курсовая работа [46,9 K], добавлен 22.05.2015

  • Становление теории вторичных текстов (ВТ), их классификация. Понятие ВТ как построенного на основе текста-источника с другими прагматическими целями и в другой коммуникативной ситуации. Сохранение в ВТ элементов когнитивно-семантической структуры текста.

    статья [37,4 K], добавлен 23.07.2013

  • Специфика научного (академического) стиля текста. Основные правила цитирования и оформления ссылок в научных текстах. Планы, тезисы, конспекты как разновидности научных текстов и методика их выполнения. Выводы как неотъемлемая часть научного текста.

    контрольная работа [74,9 K], добавлен 24.02.2015

  • Характерные черты и особенности построения креолизованного текста в комиксах. Исследование паралингвистических средств в тексте как основной единицы языковой коммуникации. Место креолизованных текстов в системе текстов, их структурные особенности.

    курсовая работа [727,2 K], добавлен 30.10.2014

  • Понятие и основные приемы выдвижения текстов народной сказки. Особенности приемов выдвижения текстов народной сказки. Классификация контраста как семантико-функциональной основы текста короткого рассказа. Типы контраста в образной системе текста.

    курсовая работа [36,5 K], добавлен 15.12.2016

  • Определение и составляющие креолизованного текста. История французского комикса. Комикс как креолизованный текст. Сравнительно-сопоставительный анализ лингвистической организации вербальных составляющих текстов французских комиксов разной степени.

    курсовая работа [6,6 M], добавлен 28.09.2014

  • Закономерности семантической и структурной организации текстов, их классификация и типы. Сущность монологических и диалогических, устных и письменных текстов. Виды кулинарных рецептов, их лингвистические, национальные особенности и культурная специфика.

    курсовая работа [56,8 K], добавлен 23.03.2010

  • Исследование композиционно-речевых форм в структуре англоязычных художественных текстов, проведение разбора повествования, описания и рассуждения. Представление о формально-грамматическом (синтаксическом), речевом и логико-смысловом строении текста.

    курсовая работа [55,4 K], добавлен 23.08.2015

  • Структура текста, морфологический уровень. Исследование текста с лингвистической точки зрения. Прямонаправленная и непрямонаправленная связность текста. Важность морфологического уровня текста в понимании структуры текста и для понимания интенции автора.

    реферат [30,4 K], добавлен 05.01.2013

  • Текст как формально-логическое образование. Основные методы криптоанализа. Метод частотного анализа текста. Показатель частоты встречаемости буквы алфавита. Частотные характеристики биграмм. Определение ранжирования данных. Определение контент-анализа.

    реферат [280,3 K], добавлен 28.09.2011

  • Общие и частные особенности документных текстов с точки зрения документной лингвистики. Стандартизация и унификация средств делового текста. Роль клише/штампов в подготовке и восприятии делового текста, система обязательных и дополнительных их признаков.

    курсовая работа [59,1 K], добавлен 26.09.2014

  • Характеристика научно-технического текста на лексическом, стилистическом, грамматическом и синтаксическом уровнях. Анализ терминологии английских научно-технических текстов. Основные трудности перевода свободных и устойчивых словосочетаний данных текстов.

    курсовая работа [50,2 K], добавлен 08.06.2013

  • Теоретические аспекты рассмотрения особенностей перевода устойчивых словосочетаний и терминологических клише на основе научных текстов и диссертационных работ. Анализ конкретного текста и выявление влияния контекста на перевод специальных терминов.

    курсовая работа [77,3 K], добавлен 09.11.2012

  • Исследование основных подходов к определению текста и дискурса. Дискурсивное пространство рекламного текста и его особенности. Языковые средства выражения коммуникативно-прагматической направленности в рекламных текстах. Употребление паремий в текстах.

    дипломная работа [119,7 K], добавлен 03.02.2015

  • Понятие "перевод". Основные типы переводческих ошибок. Характеристика концепций предпереводческого анализа, различные точки зрения на выполнение и технику перевода. Применение предпереводческого анализа текста на практике (в ходе анализа текстов).

    научная работа [172,9 K], добавлен 11.09.2012

  • Основные методы достижения адекватности в переводе, грамотная идентификация переводческой проблемы. Исследование переводческих трансформаций при переводе общественно-политического текста на примере приветственной речи американского президента Б. Обамы.

    курсовая работа [48,9 K], добавлен 11.07.2010

  • Общее представление о тексте как речетворческом процессе. Основные правила построения и функционально-смысловые типы текстов. Описание как один из самых распространенных компонентов монологической авторской речи. Тексты с различными видами связи.

    реферат [82,3 K], добавлен 14.12.2012

  • Основные характеристики технического текста. Лексико-грамматические особенности стиля технического текста. Перераспределение содержания, сопровождаемое изменением синтаксической структуры фразы. Анализ перевода инструкции к китайским телефонам.

    курсовая работа [62,9 K], добавлен 17.04.2012

  • Понятие текста и проблема его определения. Принципы построения и различия художественных и нехудожественных текстов. Филологический анализ художественного текста. Исторические изменения категории времени. Способы выражения категории времени в тексте.

    курсовая работа [34,0 K], добавлен 03.05.2014

  • Понятие перевода, его функции и роль в современном мире. Особенности профессии переводчика. Лингвокультурные факторы перевода юридического текста. Правовая лингвистика и взаимосвязь языка и права. Виды и особенности перевода юридических текстов.

    курсовая работа [59,0 K], добавлен 11.12.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.