Los CIO han estado bajo una inmensa presión durante algún tiempo para entregar iniciativas digitales exitosas mientras navegan por limitaciones presupuestarias y aumentando las demandas de los altos ejecutivos. Una encuesta reciente de Gartner revela que el 92% de los CIO anticipan la integración de la inteligencia artificial (IA) en sus organizaciones para 2025, pero el 49% lucha por evaluar y mostrar el valor de la tecnología. ¿Estamos dando vueltas en círculos aquí?
En medio de estos desafíos, los modelos de lenguaje pequeño (SLM) han surgido como una solución convincente, prometiendo capacidades de IA más seguras de menor costo y más seguras que pueden encajar con las prioridades estratégicas. Tanto sobre SLM tiene sentido.
“La comunidad de IA ha estado explorando activamente modelos de idiomas pequeños como Mistral Small and Deepseek R1”, dice Amer Sheikh, científico jefe de datos de Bearingpoint. “Estos modelos han visto una tracción significativa, como lo demuestra el número de descargas en la cara de abrazo. Su popularidad proviene de su capacidad para intercambiar precisión, velocidad y rentabilidad”.
Agregar inteligencia en el borde
Y ese es el punto clave. Es una compensación, pero que claramente vale la pena hacer. Los SLM, por su propia naturaleza, ofrecen una alternativa práctica para las organizaciones que buscan implementar la IA sin los gastos generales asociados con grandes modelos de idiomas (LLM). También están conduciendo la próxima ola de adopción de IA Edge, lo que permite que los modelos de IA se ejecuten en teléfonos inteligentes, dispositivos de Internet de las cosas (IoT) y sistemas industriales sin depender de la infraestructura en la nube.
“Los modelos pequeños abren la posibilidad de llevar la ejecución al límite”, dice Peter Van der Putten, director del laboratorio de IA en Pegasystems y profesor asistente de IA en la Universidad de Leiden. “Esto podría significar funcionar en teléfonos inteligentes de alta gama, dispositivos IoT, como cámaras y, con un consentimiento adecuado, desbloquear fuentes de datos completamente nuevas para aprender que actualmente no están disponibles en Internet abierto”.
A pesar de la promesa, las aplicaciones del mundo real de SLM en dispositivos móviles e IoT permanecen en las primeras etapas. Algunas implementaciones prácticas incluyen el modelo R1 de Deepseek, que se ha integrado en los sistemas de información y entretenimiento de los fabricantes de automóviles chinos (como Geely), y Phi-3, un pequeño modelo diseñado para aplicaciones de IA móviles. En educación, Stanford’s Smile Plug utiliza pequeños modelos de IA para ofrecer experiencias de aprendizaje interactivas en dispositivos Raspberry PI sin conectividad a Internet. Estos ejemplos demuestran el creciente potencial de SLM.
“Los SLM pueden y se están implementando en una serie de industrias donde existe un requisito para un conocimiento específico de dominio”, agrega Sheikh, destacando su uso en chatbots de servicio al cliente, asistentes virtuales y resumen de texto.
A diferencia de las LLM, que requieren una gran potencia computacional y recursos en la nube, los SLM pueden ejecutar localmente, reduciendo los costos y mitigando los riesgos de seguridad, de ahí su idoneidad para mejorar la inteligencia del dispositivo Edge. “Hay una reducción masiva en los costos de inferencia. Sin embargo, habrá pequeños costos para ajustar y autohospedar”, agrega.
Los SLM se pueden aumentar con conjuntos de datos más pequeños y más enfocados, dice Isabel al-Dhahir, analista principal de Globaldata. “El empleo de SLM facilita varios desafíos asociados con las LLM de uso general, incluidos los requisitos de energía computacional, los costos exorbitantes y el conocimiento insuficiente del dominio”.
Esta capacidad de centrarse en casos de uso precisos y específicos de la industria es la razón por la cual los sectores regulados como las telecomunicaciones, la contabilidad y el derecho están adoptando SLM más fácilmente.
“Hemos visto SLM para servicios profesionales en el tratamiento de la regulación contable, la regulación de las telecomunicaciones y varias aplicaciones en el dispositivo y la automatización del hogar”, agrega Al-Dhahir.
Con las técnicas de generación aumentada de recuperación (RAG), las empresas pueden refinar y mejorar aún más la precisión de estos modelos dentro de sus dominios específicos.
Enfoque clave de seguridad para la industria en crecimiento LLM-Weary
Más allá del costo, la seguridad sigue siendo un factor importante, especialmente dentro de los dispositivos de borde. Según Saman Nasrolahi, director de InMotion Ventures (el brazo de inversión de Jaguar Land Rover), aquí es donde SLM también están marcando algunas casillas.
Gran parte del miedo en torno a las LLM se asocia con una falta de transparencia en cuanto a lo que está sucediendo detrás de escena en términos de recopilación de datos y análisis. Los SLM son la versión local del mundo generativo de inteligencia artificial (Genai).
“Además de la reducción de costos, este enfoque también los hace mucho más seguros y menos vulnerables a las violaciones de datos, ya que los datos no necesitan dejar las fronteras de una organización”, dice Nasrolahi.
Esta capacidad es particularmente crucial para la atención médica, los servicios financieros y los sectores legales, donde el cumplimiento regulatorio y la protección de datos son primordiales.
“Aproximadamente un tercio de todos los ataques de seguridad cibernética ocurren cuando los datos se comparten con un proveedor externo. Al mantener los datos en el sitio, los SLM pueden reducir la superficie de ataque y las vulnerabilidades empresariales”, agrega Nasrolahi.
En un momento en que las empresas están cada vez más preocupadas por la soberanía y el cumplimiento de los datos, la capacidad de localizar el procesamiento de la IA seguramente es una ventaja significativa.
Andrew Bolster, Gerente Senior de Investigación y Desarrollo (Data Science) en Black Duck, agrega que la portabilidad de SLMS, al menos en comparación con “los gigantes de GPT-4, Claude o incluso LLAMA”, los hace muy adecuados para el despliegue de borde. La seguridad, el costo y la funcionalidad son proposiciones atractivas.
“Los SLM que operan los dispositivos en el borde significan que los datos de los usuarios no tienen que dejar el dispositivo para contribuir a una respuesta o acción inteligente, mientras que potencialmente mejora la latencia y el rendimiento, lo que hace que las operaciones inteligentes se sientan más ‘relevantes’ y ‘rápidas’ mientras protegen la privacidad de los usuarios”, dice.
Con los avances en los conjuntos de chips personalizados para admitir este tipo de cargas de trabajo, los requisitos de energía, memoria y rendimiento de SLM ahora se pueden encontrar en la mayoría de las computadoras portátiles y teléfonos móviles de nivel medio, lo que permite a las plataformas de servicio cambiar más inteligencia más cerca del usuario final. Esta capacidad de procesar datos localmente en computadoras portátiles, dispositivos móviles y sistemas de IoT industriales hace que SLMS sea particularmente valioso para aplicaciones de baja latencia, industrias y entornos sensibles a la seguridad con acceso limitado a Internet.
Jeff Watkins, director de tecnología (CTO) en CreateFuture, agrega que SLMS “puede ejecutarse localmente en computadoras portátiles, computadoras de escritorio, teléfonos inteligentes o incluso dispositivos IoT. Van con tamaños y capacidades, desde aquellos que pueden ejecutarse en dispositivos compactos hasta los que comienzan a desafiar los últimos modelos MacBook Pro”.
Con costos más bajos, seguridad mejorada y la capacidad de funcionar de manera eficiente en el hardware existente, los SLM presentan una opción cada vez más estratégica para las empresas. Pero como con cualquier tecnología emergente, quedan desafíos. Las alucinaciones, los sesgos y la necesidad de ajustar la significa que requiere una implementación cuidadosa.
“Las alucinaciones siguen siendo un problema para SLMS, similar a las LLM. Aunque, los modelos más especializados tienden a ser menos susceptibles a estos problemas”, dice Nasrolahi.
Bajar la energía, reducir el costo, más móvil se vuelve
Otro controlador clave para la adopción de SLM en dispositivos de borde es su capacidad para operar con un menor consumo de energía al tiempo que reduce la dependencia de las nubes. “Los SLMS son menos intensivos en energía, lo que los hace más baratos, mejores para el medio ambiente y, a menudo, lo suficientemente pequeño como para ejecutar el cómputo localmente en el borde, como su móvil o PC sin la necesidad de una conexión a Internet”, dice Silvia Lehnis, directora consultora de datos e IA en UBDS Digital.
Los beneficios de costo ambiental y operativo hacen que las SLM sean particularmente atractivas para las empresas con el objetivo de reducir su huella de carbono de IA al tiempo que mantiene la seguridad de los datos. “Ejecutar el modelo localmente sin acceso a Internet también puede tener ventajas de privacidad de datos, ya que sus datos no se comparten con una aplicación en línea para registro y monitoreo central, lo que lo hace adecuado para casos de uso más sensibles”, agrega Lehnis.
Es un tema recurrente. Esta creciente conciencia de que SLMS puede permitir un cambio de distancia de LLM de talla única hacia modelos de IA más enfocados y rentables debería cambiar la forma en que las empresas piensan sobre el uso de Genai. Podría tener un impacto más amplio en la compra, ciertamente en términos de cómo los CIO piensan estratégicamente sobre lo que es y no es posible con Genai.
Deloitte’s Tendencias tecnológicas 2025 El informe sugiere que las empresas ahora están considerando SLM y opciones de código abierto para la capacidad de entrenar modelos en conjuntos de datos más pequeños y precisos. Es un reconocimiento de que el tamaño no es todo, pero la precisión y la relevancia lo es, alineando cualquier implementación de IA con objetivos operativos.
La trayectoria de la adopción de IA indica una preferencia creciente por los modelos que equilibran el rendimiento con la practicidad operativa, pero también existe un deseo creciente de una mayor informática de borde, tiempo real y una funcionalidad estratégicamente relevante.
Curiosamente, en 2017, Gartner predijo que esto sucedería, alegando que para este año, el 75% de los datos generados por la empresa serían creados y procesados fuera de los centros de datos centralizados tradicionales o la nube. Y eso fue antes de que supiéramos algo sobre SLM y su papel.
Entonces, ¿qué significa esto para el futuro de SLMS y dispositivos informáticos de borde? Ciertamente, tendrán un papel importante que desempeñar a medida que las empresas ven a la IA en sus términos, pero también para permitir la diferenciación. Ese se convertirá en el nuevo desafío para los CIO: cómo sacar lo mejor de Genai para tener un gran impacto en el rendimiento comercial. Los ángulos para esto pueden provenir de una serie de direcciones: realmente depende de la organización y la industria.
El aumento de SLM no se trata solo de ahorros o seguridad de costos, sino que se trata de diferenciación de IA. Como señala Jarrod Vawdrey, científico de datos de campo de Field en Domino Data Lab, SLM ya está reestructurando la atención médica, las finanzas y la defensa, lo que permite que la IA en el dispositivo reduzca la latencia, proteja los datos confidenciales y mejore la toma de decisiones en tiempo real.
“Los SLM implementados en dispositivos médicos permiten la monitorización de pacientes en tiempo real y la asistencia de diagnóstico”, señala, mientras que las instituciones financieras están aprovechando la SLM para la detección de fraude y el cumplimiento de los antilaves de dinero.
Para los CIO, el desafío es cambiar. ¿Cómo aprovechas a Genai para tener un impacto significativo en el rendimiento del negocio? La respuesta radica en adaptar los modelos de IA a las necesidades específicas de la industria: algo que SLMS está posicionado de manera única para hacer. Los próximos años verán a las empresas ir más allá de los modelos genéricos de IA, centrándose en su lugar en la IA hiperelevante y entrenada por dominio que impulsa la diferenciación y la ventaja competitiva. Si algo va a empujar la computación de borde en la corriente principal, son modelos de lenguaje pequeño.