Чтение онлайн

на главную - закладки

Жанры

Нейросети. Обработка естественного языка
Шрифт:

test_sequence = tokenizer.texts_to_sequences(test_text)

padded_test_sequence = pad_sequences(test_sequence, maxlen=max_sequence_length)

result = model.predict(padded_test_sequence)

print("Результат анализа текста:", result)

В данном примере результатом будет число от 0 до 1, которое показывает вероятность положительного обзора. Например, если результат равен 0.85,

это означает, что модель оценивает текст как положительный с вероятностью 85%. Если результат близок к 0, это означает, что текст скорее всего отрицательный, а если близок к 1, то текст скорее всего положительный.

Этот код создает простую модель CNN для анализа тональности текстов. Обратите внимание, что для реальных данных потребуется больше данных и тонкая настройка модели для достижения высокой точности.

– Обработка последовательностей:

Сверточные нейронные сети (CNN), изначально разработанные для обработки изображений, также могут быть применены к текстовым данным. Для этого текст обрабатывается как последовательность символов или слов, и каждый элемент последовательности (символ или слово) кодируется в числовой форме. Затем текст преобразуется в матрицу, где каждый столбец соответствует символу или слову, а строки – контекстным окнам (например, наборам слов или символов).

Давайте рассмотрим этот процесс более подробно:

Кодирование текста: Сначала текст кодируется в числовую форму. Это может быть выполнено с использованием токенизации, при которой каждому уникальному слову или символу назначается уникальное числовое значение (индекс). Эти числовые значения представляют слова или символы в числовой форме.

Представление в виде матрицы: Кодированный текст представляется в виде матрицы, где каждый столбец соответствует слову или символу, а строки представляют контекстные окна. Это означает, что каждая строка матрицы представляет собой последовательность слов или символов из исходного текста. Размерность матрицы зависит от размера контекстного окна и размера словаря (количество уникальных слов или символов).

Сверточные слои: Сверточные слои в CNN применяются к матрице, чтобы извлечь важные признаки из текста. Свертка происходит путем сканирования фильтров (ядер свертки) через матрицу. Эти фильтры могут выявлять различные шаблоны и особенности в тексте, такие как последовательности слов или символов. Результатом свертки является новая матрица, называемая картой признаков (feature map).

Пулинг (Pooling): После применения сверточных слоев может выполняться операция пулинга. Пулинг используется для уменьшения размерности карты признаков, уменьшая количество параметров и улучшая обобщающую способность модели. Обычно используется операция максимального пулинга (MaxPooling), которая выделяет наибольшие значения из окна, перемещая его по карте признаков.

Полносвязные слои: После применения сверточных и пулинговых слоев информация передается в полносвязные слои для классификации или регрессии. Полносвязные слои работают с вектором признаков, полученным из карты признаков после операции пулинга.

Преимущество использования CNN для текстовых данных заключается в способности модели извлекать локальные и глобальные признаки из текста, что может улучшить

способность модели к анализу и классификации текста. Этот метод также позволяет модели работать с последовательностями разной длины, благодаря использованию окон и пулинга.

Следующий код решает задачу бинарной классификации текстовых отзывов на положительные и отрицательные. Каждый отзыв имеет метку 1 (положительный) или 0 (отрицательный).

В результате выполнения этого кода:

1. Мы создаем модель сверточной нейронной сети (CNN), которая способна анализировать тексты.

2. Загружаем обучающие данные в виде массива текстов `texts` и их меток `labels`.

3. Создаем токенизатор для преобразования текстов в численные последовательности и приводим тексты к числовому представлению.

4. Выравниваем текстовые последовательности до максимальной длины `max_sequence_length`, чтобы их можно было использовать в нейронной сети.

5. Создаем модель CNN, состоящую из слоев Embedding, Conv1D, GlobalMaxPooling1D и Dense.

6. Компилируем модель, используя оптимизатор "adam" и функцию потерь "binary_crossentropy".

7. Обучаем модель на обучающих данных в течение 10 эпох.

8. Оцениваем модель на тестовых данных (4 отдельных отзыва).

Результаты этого кода включают в себя точность модели на тестовых данных, которая измеряет, насколько хорошо модель классифицирует новые отзывы как положительные или отрицательные. Вы увидите значение точности на тестовых данных в консоли после выполнения кода. Точность ближе к 1.0 означает, что модель хорошо обучена и способна правильно классифицировать тексты.

import tensorflow as tf

import numpy as np

import matplotlib.pyplot as plt

# Генерируем примеры текстовых данных

texts = ["Это отличный продукт.", "Этот товар ужасен.", "Мне нравится эта книга.", "Не советую этот фильм."]

labels = [1, 0, 1, 0] # 1 – положительный отзыв, 0 – отрицательный отзыв

# Создаем токенизатор и преобразуем тексты в последовательности чисел

tokenizer = tf.keras.preprocessing.text.Tokenizer(num_words=1000, oov_token="<OOV>")

tokenizer.fit_on_texts(texts)

sequences = tokenizer.texts_to_sequences(texts)

# Подготавливаем данные для CNN

max_sequence_length = max([len(seq) for seq in sequences])

padded_sequences = tf.keras.preprocessing.sequence.pad_sequences(sequences, maxlen=max_sequence_length)

# Преобразуем метки в массив numpy

labels = np.array(labels)

# Создаем модель CNN

model = tf.keras.Sequential([

tf.keras.layers.Embedding(input_dim=1000, output_dim=16, input_length=max_sequence_length),

tf.keras.layers.Conv1D(128, 3, activation='relu'), # Уменьшили размер ядра до 3

tf.keras.layers.GlobalMaxPooling1D,

tf.keras.layers.Dense(1, activation='sigmoid')

])

# Компилируем модель

model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

# Обучаем модель

history = model.fit(padded_sequences, labels, epochs=10, verbose=1)

# Оцениваем модель на тестовых данных

test_texts = ["Это лучшая книга.", "Не стоит тратить деньги.", "Мне понравился фильм.", "Ужасное качество товара."]

Поделиться:
Популярные книги

Великий род

Сай Ярослав
3. Медорфенов
Фантастика:
юмористическое фэнтези
попаданцы
аниме
5.00
рейтинг книги
Великий род

Последний попаданец 3

Зубов Константин
3. Последний попаданец
Фантастика:
фэнтези
юмористическое фэнтези
рпг
5.00
рейтинг книги
Последний попаданец 3

Академия

Сай Ярослав
2. Медорфенов
Фантастика:
юмористическая фантастика
попаданцы
аниме
5.00
рейтинг книги
Академия

Защитник

Астахов Евгений Евгеньевич
7. Сопряжение
Фантастика:
боевая фантастика
постапокалипсис
рпг
5.00
рейтинг книги
Защитник

Попаданка в Измену или замуж за дракона

Жарова Анита
Любовные романы:
любовно-фантастические романы
6.25
рейтинг книги
Попаданка в Измену или замуж за дракона

Идеальный мир для Лекаря 11

Сапфир Олег
11. Лекарь
Фантастика:
фэнтези
аниме
5.00
рейтинг книги
Идеальный мир для Лекаря 11

Граф

Ланцов Михаил Алексеевич
6. Помещик
Фантастика:
альтернативная история
5.00
рейтинг книги
Граф

Шипучка для Сухого

Зайцева Мария
Любовные романы:
современные любовные романы
8.29
рейтинг книги
Шипучка для Сухого

Ночь со зверем

Владимирова Анна
3. Оборотни-медведи
Любовные романы:
любовно-фантастические романы
5.25
рейтинг книги
Ночь со зверем

Измена. Право на сына

Арская Арина
4. Измены
Любовные романы:
современные любовные романы
5.00
рейтинг книги
Измена. Право на сына

Все ведьмы – стервы, или Ректору больше (не) наливать

Цвик Катерина Александровна
1. Все ведьмы - стервы
Фантастика:
юмористическая фантастика
5.00
рейтинг книги
Все ведьмы – стервы, или Ректору больше (не) наливать

Сильнейший ученик. Том 1

Ткачев Андрей Юрьевич
1. Пробуждение крови
Фантастика:
фэнтези
боевая фантастика
аниме
5.00
рейтинг книги
Сильнейший ученик. Том 1

Девятое правило дворянина

Герда Александр
9. Истинный дворянин
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Девятое правило дворянина

Невеста вне отбора

Самсонова Наталья
Любовные романы:
любовно-фантастические романы
7.33
рейтинг книги
Невеста вне отбора