Builder.ai, el increíble caso de la startup que prometió IA y entregó trabajo manual La empresa ocultó el rol de más de 700 ingenieros y simuló operaciones con empresas asociadas, como Microsoft.

Durante varios años, la startup Builder.ai se posicionó como una empresa emergente con alto potencial.
Fundada en Londres en 2016 por Sachin Dev Duggal, la compañía prometía una solución automatizada para el desarrollo de software, a través de un asistente de inteligencia artificial llamado Natasha.
De acuerdo con Business Today, su propuesta atrajo el interés de inversionistas globales, incluyendo a Microsoft y al fondo soberano de inversión de Qatar.
Sin embargo, investigaciones revelaron que el funcionamiento real de la plataforma distaba de su discurso público. Lejos de operar mediante algoritmos avanzados, los productos eran desarrollados por un equipo de más de 700 ingenieros, con sede en India, quienes ejecutaban manualmente las tareas que supuestamente realizaba el sistema automatizado.
Estos trabajadores eran, en esencia, los verdaderos responsables de los desarrollos atribuidos a la inteligencia artificial (IA).
Cuando Builder.ai incumplió el pago de un préstamo por $50 millones de dólares concedido por Viola Credit, iniciaron las auditorías que evidenciaron las inconsistencias en el funcionamiento y los ingresos reportados por la empresa.
Además del uso de trabajo humano encubierto, se identificaron prácticas financieras irregulares, como la simulación de operaciones comerciales con empresas asociadas —entre ellas, VerSe Innovation—, con el objetivo de inflar ingresos y aparentar un crecimiento acelerado ante inversionistas.
Builder.ai entró en un proceso de insolvencia en el Reino Unido.
Relacionado: La IA tiene límites: cómo encontrar el equilibrio entre la tecnología y la humanidad
Además, Microsoft se ha distanciado del proyecto y las investigaciones siguen su curso, tanto por parte de los financiadores como de organismos reguladores.
En sectores como el financiero y el tecnológico, donde el lenguaje de la disrupción suele priorizarse sobre la rendición de cuentas, la falta de mecanismos de auditoría puede generar escenarios donde las expectativas superan la realidad operativa de las compañías.
Mientras el mercado global de IA continúa su expansión, se vuelve cada vez más necesario establecer marcos normativos que promuevan la transparencia, verifiquen capacidades reales y eviten prácticas que puedan mermar la credibilidad de todo el ecosistema.
Relacionado: Conoce 'Regresa', la IA que podría ayudar a encontrar niños perdidos en México