|
|
||
|---|---|---|
| .env | ||
| ai_client.js | ||
| logger.js | ||
| logs.jsonl | ||
| main.js | ||
| package.json | ||
| readme.md | ||
readme.md
README.md
Asistente IA - Gestión Técnica IT
Tecnología elegida
Ollama con modelo OpenChat - Elegido por ser una solución 100% local, gratuita y sin límites de uso. No requiere claves API ni conexión a servicios cloud, garantizando privacidad total de los datos.
Requisitos previos
- Node.js (v14 o superior)
- Ollama instalado y ejecutándose
- Modelo openchat descargado en Ollama
Instalar Ollama y modelo
# Instalar Ollama (visita https://ollama.ai)
# Luego descargar el modelo:
ollama pull openchat
Configuración
- Instalar dependencias:
npm install
- Configurar variables de entorno:
cp .env.example .env
# Editar .env si es necesario (valores por defecto funcionan)
Cómo ejecutar
npm start
Funcionalidades
- Checklist técnico: Genera listas de verificación estructuradas
- Transformación ITIL: Convierte incidencias a formato ITIL profesional
- Respuesta guiada: Analiza problemas ambiguos con preguntas de aclaración
Limitaciones
- Modelo local: Requiere Ollama ejecutándose en local
- Sin coste: 100% gratuito, sin límites de uso
- Rate limit: 1 llamada cada 2 segundos (configurable)
- Caché: Las consultas repetidas se responden desde caché
Logs
Todas las interacciones se registran en logs.jsonl con timestamp, parámetros y métricas.