Intro
Si venís comparando modelos de IA, seguro ya te cruzaste con una sopa de letras medio caótica: open-weight, open-source, base, instruct, chat, reasoning, uncensored, abliterated, 7B, 70B, mini, flash, pro.
El problema es que muchas veces todo eso se usa como si hablara de lo mismo, y no. Algunas etiquetas describen acceso. Otras describen comportamiento. Otras describen el tipo de ajuste, el tamaño o simplemente una variante comercial.
Por eso, cuando alguien dice que un modelo es "sin restringir", conviene frenar un segundo. En la práctica, esa frase suele mezclar varios planos distintos. Si no los separás, terminás comparando cosas incomparables.
Por qué la etiqueta "sin restringir" confunde tanto
"Sin restringir" no es una categoría técnica precisa. Es una forma vaga de resumir experiencias muy distintas.
A veces se usa para hablar de modelos cuyos pesos se pueden descargar y correr en local. Otras veces apunta a modelos con menos refusals o menos safety tuning visible. Y en otros casos es puro marketing de comunidad para decir que una variante responde temas que otros asistentes evitan.
Eso significa que dos modelos etiquetados como "uncensored" pueden tener poco en común entre sí. Uno puede ser un base model bastante crudo. Otro puede ser un instruct tuneado por terceros. Otro puede ser exactamente el mismo modelo de siempre, pero servido desde una interfaz que filtra menos.
Los cuatro ejes que conviene separar
La forma más sana de leer este mercado es partirlo en cuatro ejes.
1. Licencia y acceso
Acá entran etiquetas como:
- open-weight
- open-source
- closed o proprietary
Este eje responde preguntas como estas:
- ¿podés descargar el modelo?
- ¿podés correrlo en infraestructura propia?
- ¿la licencia permite uso comercial?
- ¿están abiertos también el código, los datasets o el pipeline de entrenamiento?
2. Alineación y guardrails
Acá aparecen términos como:
- aligned
- unaligned
- uncensored
- abliterated
Este eje tiene que ver con cuánto rechaza un modelo, qué tan visible es su capa de seguridad y hasta qué punto fue ajustado para evitar ciertos tipos de respuesta.
3. Tipo de ajuste o entrenamiento
En este plano suelen aparecer:
- base
- instruct
- chat
- reasoning
Eso describe para qué perfil de uso fue afinada la variante.
4. Serie o subvariante operativa
Acá entran cosas como:
- 7B, 8B, 20B, 70B, 120B
- mini, flash, pro
- familias o generaciones como Qwen, Gemma, Llama o GPT-OSS
Este eje suele condensar tamaño, posicionamiento, latencia, costo o generación del modelo.
Open-weight no es lo mismo que open-source
Esta es una de las confusiones más comunes.
Un modelo open-weight es, en principio, un modelo cuyos pesos están disponibles para descarga y ejecución. Eso ya es importante, porque permite correrlo en local o en infraestructura privada.
Pero ese dato no alcanza para llamarlo open-source en sentido estricto.
Que un modelo sea open-weight no implica automáticamente que estén abiertos:
- el dataset de entrenamiento
- el código completo del pipeline
- los procesos de afinado
- todos los componentes auxiliares del sistema
Por eso, cuando una ficha habla de open-weight, conviene no traducirla mentalmente como open-source solo porque suena parecido.
Qué significa realmente base, instruct, chat y reasoning
Estas etiquetas suelen describir cómo fue ajustada la variante y qué experiencia de uso entrega.
Base
Un base model es el modelo fundacional, antes del afinado fuerte para seguir instrucciones conversacionales.
Suele ser útil como punto de partida para fine-tuning o experimentación, pero normalmente es menos cómodo para usuario final. Puede completar texto bien y aun así ser bastante torpe en diálogo.
Instruct
Un instruct model fue ajustado para seguir pedidos humanos con más claridad.
En general:
- responde mejor a tareas directas
- es más usable para asistentes o automatización
- tiene una UX más predecible que un base
Chat
Un chat model está orientado a conversación multi-turno.
Suele priorizar:
- continuidad de contexto
- tono conversacional
- formato de asistente
- refusals más visibles cuando la política entra en juego
La frontera entre instruct y chat no siempre es limpia. Muchas veces chat es una especialización conversacional encima de un instruct.
Reasoning
Cuando una variante se vende como reasoning, normalmente se está señalando que fue optimizada para tareas de varios pasos, planificación, coding o resolución más profunda.
Lo importante es esto: reasoning no significa "más libre". Significa otra cosa. Es un eje de capacidad y de perfil operativo, no de gobernanza.
Qué quieren decir uncensored, unaligned y abliterated
Estas etiquetas conviene leerlas con pinzas.
No forman una taxonomía formal universal del sector. Son más bien señales prácticas, muchas veces nacidas en comunidades de modelos abiertos.
Unaligned
Suele sugerir que el modelo tiene menos alineación visible a políticas de rechazo, estilo o seguridad.
Uncensored
Es una etiqueta muy usada para variantes que responden temas que otros asistentes suelen bloquear o esquivar. A veces describe una diferencia real. Otras veces es más branding que otra cosa.
Abliterated
Generalmente apunta a variantes donde se intentó reducir o remover parte de la capa de refusals del modelo original.
La clave editorial es esta: estas palabras hablan de comportamiento percibido, no de licencia, tamaño ni calidad general.
Qué significan las series y variantes
Cuando ves nombres como 7B, 70B, mini, flash o pro, no estás leyendo una sola propiedad. Estás leyendo una mezcla.
Tamaño
Etiquetas como 7B o 70B suelen referirse al tamaño de la familia o a la cantidad de parámetros declarada.
Eso suele impactar en:
- memoria necesaria
- costo de inferencia
- latencia
- capacidad potencial
Pero no alcanza por sí solo para saber si el modelo es mejor para tu caso.
Generación o familia
Nombres como Gemma, Qwen, Llama o GPT-OSS te hablan de una familia arquitectónica o de una generación concreta.
Subvariante comercial u operativa
Términos como mini, flash o pro suelen comunicar trade-offs entre:
- velocidad
- costo
- profundidad
- contexto
- posicionamiento dentro de una familia
No son estándares globales. Cada proveedor usa esas etiquetas con su propia lógica.
Cómo leer una ficha de modelo sin confundirte
Si querés comparar modelos con criterio, hay algunas preguntas que limpian bastante el panorama.
1. ¿La etiqueta habla de acceso o de comportamiento?
No es lo mismo que un modelo sea descargable a que tenga menos refusals.
2. ¿La denominación viene del proveedor o de la comunidad?
No pesa igual una categoría oficial del vendor que un nombre puesto por terceros en un repositorio.
3. ¿La variante está describiendo entrenamiento, tamaño o marketing?
Instruct, reasoning, 70B o flash no describen el mismo plano.
4. ¿Qué trade-off mete en velocidad, costo y gobernanza?
Un modelo más obediente o menos filtrado puede ser útil en algunos escenarios, pero también puede exigir más validación humana, más aislamiento y mejores controles.
Qué conviene mirar antes de elegir uno para trabajo real
Antes de enamorarte de una etiqueta, conviene revisar esto:
- licencia real
- posibilidad de despliegue local o privado
- tipo de ajuste
- tamaño y costo operativo
- tasa de rechazo frente a tareas legítimas
- calidad técnica de las respuestas
- documentación de la variante
- claridad sobre qué cambió respecto del modelo base
La pregunta útil no es "¿este modelo es totalmente libre?".
La pregunta útil es: ¿qué dimensión está describiendo esta etiqueta y cómo impacta en mi caso de uso?
Conclusión
No existe una sola categoría limpia llamada "modelo de IA sin restringir". Lo que existe es una mezcla de atributos distintos: acceso a los pesos, grado de alineación, tipo de ajuste, tamaño, familia y posicionamiento comercial.
Separar esos ejes te evita caer en hype, comparaciones malas y decisiones técnicas flojas. Y también te ayuda a leer mejor cualquier ficha, benchmark o nombre raro que aparezca en el mercado.
Si alguien te dice que un modelo es open-weight, reasoning, uncensored o flash, no asumas que ya entendiste todo. Lo más probable es que solo hayas identificado una parte del mapa.