uz
KA
июня 23, 2025
Обновлено июня 23, 2025

Автоматизация анализа клиентских данных через GPT API

Аналитика в бизнесе занимает отдельную строчку пьедестала, ведь благодаря ей увеличиваются обороты компании, повышается эффективность и скорость обслуживания, а также растет и прибыль. Эдакий мониторинг состояния ваших дел, который можно интерпретировать через призму сухих цифр и сделать прогноз на дальнейшие продажи или, наоборот, провести ретроспективу и сделать работу над ошибками.

Для этой задачи требуются квалифицированный состав аналитиков, которые владеют навыками в использовании ПО для сбора данных, могут программировать данные решения или использовать готовые, оперируют с БД. А самое главное могут суммировать и анализировать полученные данные, для того чтобы восполнить персонал такой квалификации или же повысить эффективность существующего за счет автоматизации бизнес-процессов необходимо отдельное решение.

В данном материале, мы рассмотрим возможности автоматизации аналитики вашего взаимодействия с клиентами. На основе искусственного интеллекта через API от Serverspace!

Сценарий работы с данными

Анализ фидбека пользователей

Представим ситуацию, когда у вас накопился массив информации с отзывами и сообщениями от клиентов, будь-то с почты, на сайте компании или стороннем маркетплейсе. И вам необходимо оценить отношение покупателей к вашему продукту, проанализировать потребности и решить возникшие задачи.

В классическом сценарии пришлось бы отталкиваться только от численных показателей, где пользователь поставил оценку услуге или продукту. Однако, такой анализ не всегда может быть полезен, так как не дает полной картины потребностей клиента и не всегда оценка может быть непротиворечивой.

ОтзывСкриншот №1 — Отзыв

Необходим полнотекстовый анализ с учетом лексических особенностей, будь-то ирония, сарказм и тд. С дальнейшей оценкой отношения покупателя к продукту. Пример схемы обработки фидбека клиентов может выглядеть следующим образом:

Архитектура ПО
Скриншот №2 — Архитектура ПО

Модуль сбора данных клиентов обращается ко внешним источникам и запрашивает необходимые наборы данных для анализа, после записывает в БД или отдельный файл. Модуль аналитики запрашивает массив данных из этого файла и направляет на аналитику в GPT API от Serverspace. Через некоторое время обратно приходит аналитика по массиву данных, которая сохраняется в ту же базу данных или отдельный файл.

Пример работы

На вход поступают данные формата массива, в котором через разделитель указаны отзывы, комментарии и прочий фидбек.

{
List of Comsumers Data
{
"Feedback-1": [
{
"comment": "Для брекетов слишком уж толстая нить...",
"rate": "4",
"response": "Екатерина, здравствуйте! Спасибо за ваш отзыв! Благодаря инновационной запатентованной технологии ****, нить ****** распушается во время использования, собирая на себе весь налет. Также рекомендуем обратить внимание на нашу новинку — межзубный ершик с эластичным кончиком ***** со вкусом мяты, артикул ******. Надеемся, что вы оцените продукт!"
"comment": "Удобно продевать через брекеты, но сама нить сильно пушится.",
"rate": "3",
"response": "Екатерина, здравствуйте! Спасибо за ваш отзыв! Благодаря инновационной запатентованной технологии ******, нить ****** распушается во время использования, собирая на себе весь налет. Также рекомендуем обратить внимание на нашу новинку — межзубный ершик с эластичным кончиком ****** со вкусом мяты, артикул *******. Надеемся, что вы оцените продукт!
"comment": "Мне не подошло. Ерунда такая.";
"rate": "4",
"response": "-"
}
]
}

Аналитика от LLM по данному сету комментариев о продукте:

Аналитика датасета
Скриншот №3 — Аналитика датасета

Качество и состав аналитики напрямую зависит от поставленного запроса перед AI GPT, желательно дробить задания к аналитическому модулю по разным запросам.

Рекомендации по датасету
Скриншот №4 — Рекомендации по датасету

Так качество ответов будет существенно выше. Форма запроса произвольная, для работы советуется использовать язык структурной разметки любого формата.

Реализация модуля сбора данных клиентов может выглядеть так:

import sqlite3
import requests
from bs4 import BeautifulSoup
import pandas as pd
import json
# Подключение к базе данных SQLite
conn = sqlite3.connect('example.db')
cursor = conn.cursor()
# Извлечение данных из существующей таблицы
def fetch_data_from_db(table_name):
cursor.execute(f"SELECT * FROM {table_name}")
data = cursor.fetchall()
columns = [description[0] for description in cursor.description]
df = pd.DataFrame(data, columns=columns)
return df
# Парсинг данных с веб-сайта своей компании
def parse_data_from_website(url):
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
# Пример парсинга комментариев, оценок и ответов
feedbacks = soup.find_all("div", class_="feedback__info-header")
results = []
for feedback in feedbacks:
# Заметьте, что вам нужно адаптировать парсинг под реальную структуру сайта
comment = feedback.find("div", class_="comment").get_text(strip=True)
rate = feedback.find("div", class_="rate").get_text(strip=True)
response = feedback.find("div", class_="response").get_text(strip=True)
results.append({
"comment": comment,
"rate": rate,
"response": response
})
return results
# Запись данных в новую таблицу в формате JSON
def write_to_new_table(json_data, table_name):
cursor.execute(f"""
CREATE TABLE IF NOT EXISTS {table_name} (
id INTEGER PRIMARY KEY AUTOINCREMENT,
data JSON
)
""")
cursor.execute(f"INSERT INTO {table_name} (data) VALUES (?)", (json_data,))
conn.commit()
# Основная функция
def main():
# Задать URL для парсинга и название существующей таблицы
url = 'http://example.com'
existing_table = 'source_table'
new_table = 'parsed_data'
# Извлечение данных из БД
db_data = fetch_data_from_db(existing_table)
# Парсинг данных с веб-сайта
web_data = parse_data_from_website(url)
# Структурирование данных в формате JSON
json_structure = {
"List of Consumers Data": {
"Feedback-1": web_data
}
}
# Преобразование данных в формат JSON
json_data = json.dumps(json_structure, ensure_ascii=False)
# Запись данных в новую таблицу
write_to_new_table(json_data, new_table)
print("Данные успешно записаны в таблицу", new_table)
# Запуск скрипта
if __name__ == "__main__":
main()
# Закрываем соединение с базой данных
conn.close()

Объяснение работы модуля сбора данных

  • Подключение к БД: Скрипт подключается к базе данных с помощью sqlite3.
  • Извлечение данных из БД: Функция fetch_data_from_db извлекает данные из существующей таблицы.
  • Парсинг данных с веб-сайта: В функции parse_data_from_website мы собираем комментарии, оценки и ответы с веб-страницы и формируем их в структуру, которая соответствует JSON-формату.
  • Создание JSON-структуры: В результате парсинга формируется JSON-структура, которая включает:”List of Consumers Data” — основной ключ, который содержит вложенный объект с названием “Feedback-1”. Он содержит массив, каждый элемент которого является словарем с ключами “comment”, “rate” и “response”.
  • Запись данных в таблицу: Объединенные данные конвертируются в строку JSON и записываются в новую таблицу базы данных.

Обязательно адаптируйте парсинг данных в parse_data_from_website, чтобы он соответствовал реальной структуре HTML на вашем сайте. Если необходимо добавлять дополнительные данные (например, из базы данных), можно расширить структуру JSON соответствующим образом.

Для аналитического модуля реализация может принимать следующий вид:

import sqlite3
import requests
import json

# Подключение к базе данных SQLite
conn = sqlite3.connect('example.db')
cursor = conn.cursor()

# Извлечение данных из БД
def fetch_json_from_db(table_name):
cursor.execute(f"SELECT data FROM {table_name}")
data = cursor.fetchall()

# Извлекаем первый результат, если в таблице несколько записей
if data:
return data[0][0]  # Первое значение первой строки (предполагается, что оно содержит JSON)
return None

# Основная функция
def main():
table_name = 'parsed_data'

# Извлечение данных в формате JSON из БД
json_data = fetch_json_from_db(table_name)
if json_data:

# Преобразуем строку JSON в Python-объект для модификации
json_object = json.loads(json_data)

# Пример извлечения части данных для использования в запросе
feedback = json_object.get("List of Consumers Data", {}).get("Feedback-1", [])[0]

# Формируем тело запроса на основе извлеченных данных

payload = {
"model": "openchat-3.5-0106",
"max_tokens": 1024,
"top_p": 0.1,
"temperature": 0.6,
"messages": [Представь себя аналитиком данных и выдай оценку данного дата сета на основе представленных полей
{
"role": "user",
"content": f"comment: {feedback['comment']}, rate: {feedback['rate']}, response: {feedback['response']}"
}
]
}

# Задание URL и заголовков
url = "https://gpt.serverspace.ru/v1/chat/completions"
headers = {
"Accept": "application/json",
"Content-Type": "application/json",
"Authorization": "Bearer Fh/ReWcly3HndpNdG98hasdasdSADhbzgzQLVsdsdshf7WOwvm1cAZaVFIUPbxnxsyVpSLghCh32ScBcmnLKF5mb1EU4Q=="
}

# Отправка POST-запроса
response = requests.post(url, headers=headers, data=json.dumps(payload))

# Обработка ответа
if response.status_code == 200:
print("Запрос успешно выполнен. Ответ сервера:")
print(response.json())
else:
print(f"Ошибка: {response.status_code}")
print(response.text)
else:
print("Не удалось извлечь данные из базы данных.")

# Запуск скрипта
if __name__ == "__main__":
main()

# Закрываем соединение с базой данных
conn.close()

Объяснение работы аналитического модуля:

  • Подключение к БД и извлечение данных: Скрипт подключается к базе данных SQLite и извлекает данные в формате JSON из указанной таблицы. В этом примере предполагается, что таблица parsed_data содержит столбец data, где хранится JSON-строка.
  • Формирование тела запроса: Извлекается первый элемент из массива “Feedback-1” в JSON, чтобы использовать его для формирования запроса. В поле content API-запроса данные передаются в нужном формате.
  • Отправка POST-запроса: Используется requests.post() для отправки запроса на указанный URL. Заголовки включают Authorization для аутентификации.
  • Обработка ответа: Скрипт проверяет статус ответа. Если запрос успешен, выводится ответ от сервера. Если произошла ошибка, выводится код ошибки и текст ответа.

Параметр запроса “Представь себя аналитиком данных” необходим, так как модель не из класса fine-tuning. Так же для удобства использования возможна интеграция с Web-приложением для управления БД и выгрузкой результатов аналитики. Услуга GPT API от Serverspace может быть использована в архитектуре любого средства, которое может работать с HTTP/S запросами, что делает его универсальным решением в оптимизации бизнес-процессов.

Главное требование к работе с услугой это наличие модулей сбора данных или подготовленных датасетов, которые с определенным запросом можно передать на анализ. К примеру, у многих маркетплейсов аналитику из личного кабинета можно подгрузить через API и таким же образом использовать в своих собственных решениях на базе GPT API от Serverspace.

API
Скриншот №5 — API

На данный момент управление личным кабинетом вряд ли можно полностью поручить сервису, однако, сценарии использования в аналитике данных с помощью GPT API показывает отличные результаты!

Как итог, процесс обратной связи с клиентами автоматизирован и поставлен на поток, а это значит, что своевременно получать аналитику на статистику по отклику и потребностям клиентов станет куда проще!

Оценка:
5 из 5
Аverage rating : 5
Оценок: 7
100029 Ташкент Улица Якка Чинар, дом 2/1
ООО «ИТГЛОБАЛКОМ ЛАБС»

Вам также может быть интересно...