55 lines
1.4 KiB
Markdown
55 lines
1.4 KiB
Markdown
# README.md
|
|
|
|
# Asistente IA - Gestión Técnica IT
|
|
|
|
## Tecnología elegida
|
|
|
|
**Ollama con modelo OpenChat** - Elegido por ser una solución 100% local, gratuita y sin límites de uso. No requiere claves API ni conexión a servicios cloud, garantizando privacidad total de los datos.
|
|
|
|
## Requisitos previos
|
|
|
|
1. **Node.js** (v14 o superior)
|
|
2. **Ollama** instalado y ejecutándose
|
|
3. Modelo **openchat** descargado en Ollama
|
|
|
|
### Instalar Ollama y modelo
|
|
```bash
|
|
# Instalar Ollama (visita https://ollama.ai)
|
|
# Luego descargar el modelo:
|
|
ollama pull openchat
|
|
```
|
|
|
|
## Configuración
|
|
|
|
1. Instalar dependencias:
|
|
```bash
|
|
npm install
|
|
```
|
|
|
|
2. Configurar variables de entorno:
|
|
```bash
|
|
cp .env.example .env
|
|
# Editar .env si es necesario (valores por defecto funcionan)
|
|
```
|
|
|
|
## Cómo ejecutar
|
|
```bash
|
|
npm start
|
|
```
|
|
|
|
## Funcionalidades
|
|
|
|
1. **Checklist técnico**: Genera listas de verificación estructuradas
|
|
2. **Transformación ITIL**: Convierte incidencias a formato ITIL profesional
|
|
3. **Respuesta guiada**: Analiza problemas ambiguos con preguntas de aclaración
|
|
|
|
## Limitaciones
|
|
|
|
- **Modelo local**: Requiere Ollama ejecutándose en local
|
|
- **Sin coste**: 100% gratuito, sin límites de uso
|
|
- **Rate limit**: 1 llamada cada 2 segundos (configurable)
|
|
- **Caché**: Las consultas repetidas se responden desde caché
|
|
|
|
## Logs
|
|
|
|
Todas las interacciones se registran en `logs.jsonl` con timestamp, parámetros y métricas. |