La inteligencia artificial en América Latina: lo que las empresas todavía no están viendo
- Ramiro Parias
- hace 15 minutos
- 5 Min. de lectura

En los últimos años, la inteligencia artificial pasó de ser un concepto futurista a convertirse en una herramienta cotidiana. Hoy está en los sistemas que aprueban créditos, en las plataformas que recomiendan productos, en los softwares que seleccionan currículums, en aplicaciones médicas, en herramientas que redactan textos y hasta en programas que responden consultas de clientes. Muchas empresas la incorporaron casi sin darse cuenta. Primero como una mejora tecnológica. Después como una ventaja competitiva. Y finalmente como una condición para no quedarse atrás.
Pero mientras las compañías hablan de innovación, crecimiento y expansión, hay una conversación que avanza más silenciosamente: la regulación.
Europa ya tomó una decisión clara. La inteligencia artificial dejó de ser un terreno libre y empezó a estar regulada con reglas específicas. No se trata solo de multas. Se trata de exigir a las empresas que puedan explicar cómo funcionan sus sistemas, qué riesgos generan y cómo los controlan.
En América Latina la situación es diferente. No existe todavía una gran ley regional sobre inteligencia artificial. Y eso puede generar una sensación de tranquilidad. Pero esa tranquilidad es engañosa. Porque, aunque no haya una ley única, el tema ya está regulado de muchas otras formas.
Brasil, por ejemplo, viene discutiendo un marco específico para la inteligencia artificial. Chile avanza en su propio proyecto. Perú ya aprobó una ley y su reglamento. Colombia y Argentina debaten propuestas. México trabaja en agendas y proyectos vinculados al tema. Cada país lo hace a su manera y a su ritmo.
Sin embargo, más allá de las leyes específicas, hay algo que ya existe en casi todos los países: normas sobre protección de datos personales, sobre seguridad informática, sobre derechos del consumidor, sobre responsabilidad empresarial. Y la inteligencia artificial utiliza datos. Muchos datos. Cuando una empresa usa inteligencia artificial para analizar clientes, otorgar préstamos, evaluar candidatos, fijar precios o recomendar productos, está trabajando con información personal. Eso ya la coloca dentro de un marco legal.
La pregunta entonces deja de ser “¿hay una ley de inteligencia artificial?” y pasa a ser otra: “¿estamos preparados para explicar cómo funciona lo que estamos usando?”
En conversaciones con empresarios de la región, aparece un patrón común. La inteligencia artificial suele estar dentro del área técnica. Los desarrolladores la manejan. El proveedor la ofrece como parte del servicio. El equipo comercial la presenta como una mejora del producto. Pero pocas veces alguien en la empresa tiene la responsabilidad formal de preguntarse: ¿qué riesgos trae esto?, ¿qué pasa si falla?, ¿qué pasa si genera un error importante?, ¿qué pasa si un cliente reclama?, ¿qué mostramos si un inversor pregunta cómo controlamos el sistema?
El problema no aparece cuando todo funciona bien. Aparece cuando algo sale mal. Imaginemos un caso simple. Una empresa financiera utiliza un sistema automático para evaluar solicitudes de crédito. El sistema rechaza a un grupo de clientes de manera sistemática. Uno de ellos reclama. Se hace público que el modelo tenía un sesgo. La noticia circula. La reputación se resiente.
O pensemos en una empresa de salud que utiliza una herramienta automática para clasificar estudios médicos. Si hay un error grave, la discusión deja de ser tecnológica y se vuelve institucional.
En estos escenarios, lo primero que preguntan los inversores, los reguladores o los medios no es “qué algoritmo usaron”. La pregunta es mucho más directa: ¿quién era responsable?, ¿había controles?, ¿se hicieron pruebas?, ¿existía supervisión humana? Ahí es donde muchas compañías se dan cuenta de que nunca formalizaron la gobernanza de la inteligencia artificial. Que la usaban, pero no la gestionaban. Este punto es importante para América Latina porque nuestras empresas suelen crecer rápido, con estructuras livianas. Eso es una ventaja. Pero también puede convertirse en una debilidad cuando el entorno se vuelve más exigente.
Europa ya exige a las empresas que demuestren cómo gestionan los riesgos de sus sistemas de inteligencia artificial. Y muchas compañías latinoamericanas venden servicios o tecnología a clientes europeos. Aunque la empresa esté en Buenos Aires, San Pablo o Bogotá, si el cliente está en Madrid o París, la conversación cambia. Además, los grandes inversores internacionales ya incorporaron preguntas sobre gobernanza tecnológica en sus análisis. No quieren sorpresas. Prefieren empresas que puedan demostrar orden y previsión.
Esto no significa que mañana todas las compañías latinoamericanas enfrentarán sanciones millonarias. Significa algo diferente: el estándar de confianza está subiendo. Hoy, una empresa que no puede explicar cómo usa la inteligencia artificial puede parecer desorganizada. Y eso, en un proceso de inversión o en una negociación importante, pesa. Por eso empieza a tomar fuerza una figura nueva dentro de las organizaciones: alguien que asuma formalmente la responsabilidad de gobernar la inteligencia artificial.
No estamos hablando de un programador ni de un abogado exclusivamente. Estamos hablando de un rol que conecte tecnología, negocio y responsabilidad. Alguien que pueda traducir el funcionamiento técnico a decisiones claras y defendibles. Que ordene procesos. Que establezca criterios. Que prepare a la empresa para preguntas difíciles.
En algunas organizaciones este rol se integrará dentro del área de riesgos. En otras, en compliance o en dirección general. En empresas más grandes, puede convertirse en una función específica. La pregunta es si será una de las profesiones más demandadas en el futuro cercano. Todo indica que sí habrá una demanda creciente de personas que entiendan tanto el negocio como los riesgos de la inteligencia artificial. No necesariamente con el título exacto de “responsable de gobernanza de IA”, pero sí con esa capacidad.
Hace algunos años, pocas empresas hablaban de protección de datos personales. Luego aparecieron leyes más estrictas y la figura del responsable de datos se volvió común. Algo similar puede suceder con la inteligencia artificial.
La diferencia es que aquí el impacto no es solo legal. Es estratégico.
Una empresa que ordena desde el principio cómo usa la inteligencia artificial puede convertir esa organización en una ventaja. Puede responder con tranquilidad ante auditorías. Puede generar confianza en clientes exigentes. Puede atraer inversores que valoran la previsión. En cambio, una empresa que ignora el tema puede encontrarse reaccionando bajo presión. América Latina todavía está a tiempo de abordar esta cuestión con calma. No estamos ante un escenario de regulación masiva inmediata. Pero sí estamos ante un cambio de época.
La inteligencia artificial ya no es solo una herramienta de innovación. Es un elemento que puede afectar reputación, finanzas y continuidad del negocio.
Tal vez la pregunta más importante que deberían hacerse hoy los empresarios de la región no sea si existe o no una ley específica en su país. La pregunta es más simple: Si mañana alguien importante para mi negocio me pide explicar cómo funciona la inteligencia artificial que uso y cómo controlo sus riesgos, ¿estoy preparado para responder con claridad? Si la respuesta no es un sí contundente, el momento de ordenar no es cuando llegue el problema. Es ahora. Porque en el nuevo escenario, la diferencia no estará entre quienes usan inteligencia artificial y quienes no. Estará entre quienes la usan con responsabilidad y quienes la usan sin darse cuenta de lo que implica.
Columna de opinion por Maximiliano Ripani, Solution Architect & Pre-Sales Engener en ZMA IT Solutions.




Comentarios