La importancia de las GPUs en la era del Big Data y la IA en las empresas Los ejecutivos buscan optimizar la manera en que las compañías gestionan grandes cantidades de datos con el fin de disminuir el impacto en los gastos y prevenir posibles fracasos en los proyectos.
Key Takeaways
- Las empresas enfrentan altos costos y fracasos en proyectos de Big Data.
- Las mejoras de GPU son clave para optimizar el análisis de datos y la IA.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales
En la era de los volúmenes masivos de datos, tres de cada cuatro ejecutivos encuentran relevante recurrir a mejoras de GPU (Graphics Processing Unit, en inglés) en sus objetivos de mejorar la competitividad de las empresas. Así lo ha revelado SQream en su nuevo informe sobre el estado del análisis de Big Data.
Con la creciente democratización de la inteligencia artificial (IA), son muchas las compañías que están implementando o planean incorporar soluciones que les permitan aprovechar mejor sus datos, pero un nuevo informe ha revelado problemas de datos generalizados para las empresas debido a costos de funcionamiento exorbitantes y el alto compromiso que esto requiere, llevando a que, solo en Estados Unidos, el 98% de las empresas experimentan fracasos en este tipo de proyectos.
En su informe sobre el estado del análisis de Big Data de 2024, SQream revela una brecha entre el costo de los proyectos analíticos y el valor operativo que se genera, destacando la necesidad de cambiar la forma en que las empresas manejan enormes volúmenes de datos para reducir el impacto en los costos y evitar el riesgo de fracasos del proyecto.
"Esta encuesta subraya la naturaleza generalizada de estos desafíos de gestión de datos para las grandes empresas", afirmó Deborah Leff, directora de ingresos de SQream. "Los líderes reconocen cada vez más el poder transformador de la aceleración de la GPU. El inmenso valor de un salto de rendimiento de un orden de magnitud es simplemente demasiado valioso como para ignorarlo en la carrera por convertirse en impulsado por la IA".
Si bien es cierto que desde la llegada de la computación en la nube y los recientes en la IA generativa ha puesto el análisis de grandes volúmenes de datos y potentes conocimientos empresariales al alcance de empresas de todos los tamaños, estas dos tendencias tecnológicas también son responsables de producir volúmenes masivos y cada vez mayores de datos, lo que hace que los costos de TI aumenten exponencialmente a un ritmo insostenible y sin precedentes.
Relacionado: El costo para desarrollar modelos de IA está alcanzando niveles astronómicos
Mejoras de infraestructura, una necesidad latente
Al igual que ha ocurrido con la adopción de nuevas tecnologías en el pasado, agregar más potencia informática es una de las principales vías para obtener mejores resultados de IA. Sin embargo, la encuesta de SQream destaca que hacerlo indefinidamente es un enfoque insostenible para las empresas modernas basadas en datos, ya que la complejidad de las consultas y el volumen de proyectos se ven comprometidos debido al aumento vertiginoso de las facturas y los costos de TI.
Para llegar al quid de la cuestión de por qué el análisis de datos está agotando los presupuestos empresariales y cómo cambiar esto, SQream encuestó a 300 profesionales senior de gestión de datos de empresas estadounidenses con un gasto anual de al menos $5 millones de dólares en nube e infraestructura. A pesar de los presupuestos ya sustanciales en juego, el 98% de estas empresas aún experimentaron fracasos en los proyectos de ML en 2023.
A pesar de los presupuestos ya sustanciales en juego, el 98% de estas empresas aún experimentaron fracasos en los proyectos de ML en 2023.
El informe ha reunido información valiosa sobre las opiniones de líderes de equipos, ejecutivos de innovación y profesionales orientados a los datos, por lo que el 75% de los encuestados dijo que agregar instancias de GPU a su pila de análisis tendrá el mayor impacto en sus objetivos de análisis de datos y AI/ML en 2024.
Otros datos encontrados en el informe indican que el 92% de las empresas están trabajando activamente para "adaptar el tamaño correcto" del gasto en análisis de la nube, y el 41% de las empresas considera que los altos costos involucrados en la experimentación son el principal desafío asociado con el ML y el análisis de datos en la actualidad.