La inteligencia artificial (IA) la mayor estrella de esta década en lo que respecta a tecnología, seguirá aumentando en los próximos años. Proyecciones de Gartner señalan que, para 2026, más del 80 % de las empresas habrán utilizado modelos de inteligencia artificial generativa (Gen AI). O implementado aplicaciones habilitadas para Gen AI en entornos de producción. Sin embargo, el crecimiento también pone de relieve los desafíos que enfrentan las organizaciones al lidiar con la IA. Más del 30 % de estos proyectos deberán abandonarse a finales de 2025 debido a la baja calidad de los datos. Un control de riesgos inadecuado, poca percepción de valor y altos costos.
“Vivimos en una panacea de desarrollo reciente en América Latina con la nube. Ahora vemos que la historia se repite con la inteligencia artificial. Hay una emoción que, al mismo tiempo, trae tensión y presión a los CIOs para que produzcan cualquier cosa con esta tecnología, sin mucho análisis ni estrategia. Y definitivamente este no es el mejor camino”. Afirma Gilson Magalhães, VP y General Manager de Red Hat para América Latina.
Una receta para cada negocio
La respuesta a un avance sostenible de la IA radica en la convergencia de esta inteligencia con las habilidades y los conocimientos humanos. “La inteligencia artificial ya es una realidad. Y el siguiente paso es hacer que interactúe satisfactoriamente con la inteligencia humana. Esto significa contar con herramientas de IA mejor alineadas para resolver los procesos del día a día. Automatizar el trabajo repetitivo y mejorar las capacidades de los recursos humanos para tareas más estratégicas”, señala el directivo.
Las herramientas de código abierto son grandes aliadas en este camino. La estrategia de nube híbrida abierta defendida por Red Hat es la puerta de entrada a una inteligencia artificial abierta y eficaz, respaldada por importantes socios como Google, AWS y Microsoft. Una de las plataformas más famosas de la compañía, Red Hat OpenShift, obtuvo recientemente una versión específica para IA.
Red Hat OpenShift AI proporciona capacidades confiables y consistentes para probar, desarrollar y entrenar modelos de IA. Lo que permite la preparación y adquisición de datos, así como el entrenamiento, el ajuste y la entrega de modelos. La solución se integra con otra novedad de la empresa, el Red Hat® Enterprise Linux® AI. Plataforma modelo base utilizada para desarrollar, probar y ejecutar modelos de lenguajes a gran escala (LLM) de la familia Granite para aplicaciones empresariales.
SLM: la nueva era de la IA
Según las previsiones de Forrester, mientras que casi el 90% de los tomadores de decisiones tecnológicas globales dicen que sus empresas aumentarán la inversión en infraestructura, gestión y gobernanza de datos. Los líderes tecnológicos seguirán siendo pragmáticos al invertir en IA para maximizar el valor comercial derivado de la tecnología. De cara a 2025, la transformación más significativa de las inversiones se centrará en pequeños modelos de inteligencia artificial, los llamados SLM (pequeños modelos de lenguaje, en inglés).
En la práctica, comprender la sopa de letras de los LLM y SLM es sencillo. Ambas siglas hacen referencia a tipos de sistemas de inteligencia artificial entrenados para interpretar el lenguaje humano, incluidos los lenguajes de programación. Los LLM a menudo pretenden emular la inteligencia humana en un nivel muy amplio y, por lo tanto, están capacitados en una amplia gama de grandes conjuntos de datos. Por su parte, los SLM, se entrenan en conjuntos de datos más pequeños adaptados a dominios industriales específicos (es decir, áreas de especialización).
Otras tendencias
Para 2025, la automatización y la informática de punta estarán en la agenda de las organizaciones públicas y privadas con el avance cada vez más acelerado del Internet de las cosas (IoT). Además, la computación cuántica podría dar un importante salto. Las Naciones Unidas (ONU) ya han proclamado que el 2025 será el año Internacional de la Ciencia y la Tecnología Cuántica. Esperando que la investigación sobre esta solución salga de laboratorios y obtenga aplicaciones más prácticas en la vida cotidiana.
“La virtualización también tendrá un espacio de crecimiento. Las mismas máquinas virtuales que fueron fundamentales para la evolución de la computación en la nube ahora contribuyen al entrenamiento del modelo AI/ML. Con aislamiento y reproducibilidad, escalabilidad, aceleración de hardware, flexibilidad en la configuración del software y gestión y seguridad de los datos”, explica Magalhães. Gartner señala que el 70% de las cargas de trabajo que alimentan computadoras personales y servidores de centros de datos seguirán utilizando virtualización basada en hipervisor hasta 2027.
Por el lado de las telecomunicaciones, la apuesta está en la evolución de las redes 5G y 6G, más rápidas y fiables, que impulsarán las ciudades inteligentes, los vehículos autónomos y las tecnologías inmersivas. La preocupación por soluciones más sostenibles también irá en aumento, y las empresas buscarán reducir su huella de carbono, con innovaciones en tecnología solar, almacenamiento de baterías y centros de datos sin emisiones de carbono. Las inversiones en ciberseguridad completan la lista, con soluciones sólidas y descentralizadas para que las organizaciones se protejan contra ataques crecientes, filtraciones de datos y ransomware.
También puedes leer: Las historias de las tres mujeres que conquistaron el premio Emprendedoras del Año 2024