From dcb3dd0a48b124b526cbfec2180a3e28ca50213a Mon Sep 17 00:00:00 2001 From: MrPokeYT Date: Mon, 2 Feb 2026 16:39:07 +0000 Subject: [PATCH] Subir archivos a "/" --- package.json | 20 +++++++++++++++++++ readme.md | 55 ++++++++++++++++++++++++++++++++++++++++++++++++++++ 2 files changed, 75 insertions(+) create mode 100644 package.json create mode 100644 readme.md diff --git a/package.json b/package.json new file mode 100644 index 0000000..42273a1 --- /dev/null +++ b/package.json @@ -0,0 +1,20 @@ +{ + "name": "asistente-ia-it", + "version": "1.0.0", + "description": "Asistente IA para gestión técnica IT con Ollama", + "main": "main.js", + "scripts": { + "start": "node main.js" + }, + "dependencies": { + "dotenv": "^16.6.1" + }, + "keywords": [ + "ia", + "ollama", + "itil", + "checklist" + ], + "author": "", + "license": "MIT" +} diff --git a/readme.md b/readme.md new file mode 100644 index 0000000..dd745ad --- /dev/null +++ b/readme.md @@ -0,0 +1,55 @@ +# README.md + +# Asistente IA - Gestión Técnica IT + +## Tecnología elegida + +**Ollama con modelo OpenChat** - Elegido por ser una solución 100% local, gratuita y sin límites de uso. No requiere claves API ni conexión a servicios cloud, garantizando privacidad total de los datos. + +## Requisitos previos + +1. **Node.js** (v14 o superior) +2. **Ollama** instalado y ejecutándose +3. Modelo **openchat** descargado en Ollama + +### Instalar Ollama y modelo +```bash +# Instalar Ollama (visita https://ollama.ai) +# Luego descargar el modelo: +ollama pull openchat +``` + +## Configuración + +1. Instalar dependencias: +```bash +npm install +``` + +2. Configurar variables de entorno: +```bash +cp .env.example .env +# Editar .env si es necesario (valores por defecto funcionan) +``` + +## Cómo ejecutar +```bash +npm start +``` + +## Funcionalidades + +1. **Checklist técnico**: Genera listas de verificación estructuradas +2. **Transformación ITIL**: Convierte incidencias a formato ITIL profesional +3. **Respuesta guiada**: Analiza problemas ambiguos con preguntas de aclaración + +## Limitaciones + +- **Modelo local**: Requiere Ollama ejecutándose en local +- **Sin coste**: 100% gratuito, sin límites de uso +- **Rate limit**: 1 llamada cada 2 segundos (configurable) +- **Caché**: Las consultas repetidas se responden desde caché + +## Logs + +Todas las interacciones se registran en `logs.jsonl` con timestamp, parámetros y métricas. \ No newline at end of file