Daily Scrum - 30 de Septiembre 2025

Ayer me dediqué a tratar de resolver los Issues #21 y #22 , es decir, a desplegar un modelo LLM (en este caso Small Language Model por su tamaño) en docker.

Esta no fue tarea fácil, ya que presentaba las siguientes deificultades:

  • Limitación de Hardware, con apenas 5 GB de VRAM disponible para el modelo
  • Necesidades especiales: Es necesario que el modelo pueda seguir instrucciones (tipo instruct) y tambien que es finetuned para el function calling (#22 ).

Hoy será necesario ajustar parámetros y hacer pruebas para comprobar el correcto funcionamiento del sistema.

Además, considerando la dificultad de encontrar un modelo apto, seguramente habrá que recurrir a inferencia por API para el modelo de embedding, o al contrario; tener la inferencia del modelo principal por API y el embedding desplegado.

Esto sería a modo de testing y desarrollo, ya que en producción habría que tener ambos modelos (sino más) desplegados en una máquina más potente.

Tareas de hoy:

  • Ajustar parámetros
  • Generar pruebas automáticas