No description
  • Go 88.2%
  • Dockerfile 11.8%
Find a file
2025-11-13 15:15:44 +03:00
config first commit 2025-11-13 13:14:31 +03:00
handler first commit 2025-11-13 13:14:31 +03:00
middleware first commit 2025-11-13 13:14:31 +03:00
.gitignore first commit 2025-11-13 13:14:31 +03:00
.woodpecker.yml Fix CI/CD 2025-11-13 13:23:40 +03:00
Dockerfile Fix Dockerfile 2025-11-13 15:15:44 +03:00
go.mod first commit 2025-11-13 13:14:31 +03:00
go.sum first commit 2025-11-13 13:14:31 +03:00
LICENSE first commit 2025-11-13 13:14:31 +03:00
main.go first commit 2025-11-13 13:14:31 +03:00
README.md first commit 2025-11-13 13:14:31 +03:00

MCP Proceed Text Server

MCP (Model Context Protocol) сервер для извлечения Named Entity Recognition (NER)

Этот репозиторий содержит реализацию MCP-сервера, который позволяет извлекать сущности из текста с использованием LLM (Large Language Model). Сервер поддерживает интеграцию с различными LLM через API и предоставляет инструмент для извлечения персонажей (PER), мест (LOC) и организаций (ORG). Если нужно расширение, уточнение или какой-либо другой функционал, то это настраивается с помопью промпта и системного промпта при запуски MCP-сервера.

🚀 Особенности

  • Поддержка Model Context Protocol (MCP) для интеграции с различными клиентами
  • Извлечение сущностей: персонажи (PER), места (LOC), организации (ORG)
  • Настройка через параметры командной строки и переменные окружения
  • Поддержка TLS-верификации и токенов авторизации
  • Интеграция с LLM API (например, Ollama, OpenAI и др.)

📦 Требования

  • Go 1.25.3+
  • Доступ к LLM API (например, Ollama, OpenAI и т.п.)

🛠️ Установка

git clone https://git.ymnuktech.ru/ymnuk/mcp-proceed-text.git
cd mcp-proceed-text
go mod tidy
go build -o mcp-proceed-text .

🧪 Запуск

./mcp-proceed-text

По умолчанию сервер запускается на http://0.0.0.0:3000/mcp.

Пример запуска с настройками:

./mcp-proceed-text --port 3000 --llm-base-url http://localhost:11434/api --llm-model llama3 --system-prompt "Ты ассистент по анализу текста"

🧩 Параметры запуска

Параметр Описание По умолчанию
--port / WEB_PORT Порт для прослушивания 3000
--llm-base-url / LLM_BASE_URL Базовый URL LLM API http://localhost:11434/api
--llm-model / LLM_MODEL Модель LLM gpt-3.5-turbo
--system-prompt / SYSTEM_PROMPT Системный промпт для LLM Ты - ассистент и призван помогать людям
--llm-token / LLM_TOKEN Токен авторизации LLM
--http-insecure-skip-verify Пропустить SSL-верификацию false
--prompt / PROMPT Промпт для извлечения сущностей См. config.go
--timeout / TIMEOUT Таймаут запроса к LLM 600

📡 Использование

После запуска сервер доступен по адресу http://0.0.0.0:3000/mcp.
Клиенты, поддерживающие MCP, могут использовать инструмент proceed для извлечения сущностей.

Пример вызова инструмента:

{
  "name": "proceed",
  "arguments": {
    "chapter": "Встреча с президентом состоялась в Нью-Йорке. Он представился как Джон Смит из компании ABC."
  }
}

📄 Лицензия

Этот проект распространяется под лицензией MIT. Подробности смотрите в файле LICENSE.

📬 Связаться

Если у вас есть вопросы или предложения, создайте issue или свяжитесь с разработчиками.


Создано с ❤️ для NER-анализа текста через MCP