Diario Concepción Radio UdeC TVU Noticias La Discusión
Economía y Negocios

Expertos locales advierten desafíos en proyecto de ley que busca regular la IA en Chile

La iniciativa busca resguardar derechos como privacidad, autonomía y seguridad.

Por: Bruno Rozas Hinayado 25 de Abril 2026
Fotografía: Cedida.

En medio del creciente avance de las tecnologías digitales y su impacto en la vida cotidiana, el Congreso Nacional discute un proyecto de ley que busca establecer un marco regulatorio para la inteligencia artificial (IA) en Chile.

La iniciativa, actualmente en debate en la Cámara de Diputadas y Diputados, plantea como eje central que el desarrollo, implementación y uso de estos sistemas tenga como objetivo primordial el bienestar de las personas y la sociedad, junto con establecer responsabilidades claras frente a posibles daños, incluso aquellos imprevistos.

Desde Concepción, académicos y especialistas en tecnología y derecho han seguido de cerca la evolución de esta propuesta, destacando tanto sus avances como los desafíos que implica llevarla a la práctica.

El proyecto propone, entre otros aspectos, garantizar derechos fundamentales como la autonomía, la privacidad, la transparencia y la seguridad de las personas frente al uso de sistemas de IA, estableciendo límites a desarrolladores, operadores y controladores.

El consultor en marketing y tecnología Rodrigo Maulén Torres, cofundador de la plataforma FirstMove, valoró el carácter innovador de la propuesta, aunque advirtió sobre los riesgos de una regulación excesiva.

Cicat.

“Acá hay un dilema, que si bien aplicamos la ley, también hay un elemento importante que como que no hay que asfixiar la capacidad de innovación que puedan tener las empresas”, señaló, enfatizando que se trata de una normativa “súper vanguardista” y que posiciona a Chile en una discusión global.

Maulén explicó que uno de los puntos más complejos del proyecto es la forma en que se aborda la responsabilidad, especialmente considerando la naturaleza no determinística de la inteligencia artificial.

“Pueden haber daños de imprevisto, que eso tiene que ver un poco con la naturaleza no determinística de la inteligencia artificial”. En ese sentido, indicó que la discusión apunta a una posible responsabilidad objetiva de quienes operan estos sistemas, lo que podría impactar directamente en la actividad empresarial.

El especialista también subrayó la necesidad de distinguir entre los distintos actores involucrados. Según explicó, el desarrollador debiera responder por fallas estructurales o sesgos en el entrenamiento del sistema, mientras que el operador sería responsable por su implementación y supervisión.

A esto se suma la importancia de mantener siempre la intervención humana. “No lanzar una máquina o una inteligencia artificial dentro de una organización sin la supervisión humana o tirarla en piloto automático”, advirtió, destacando el concepto de Human in the Loop como un elemento clave en el uso responsable de estas tecnologías.

Asimismo, planteó que la ley podría incorporar mecanismos como seguros de responsabilidad civil para cubrir daños imprevistos, especialmente en el caso de pequeñas y medianas empresas tecnológicas, que podrían verse afectadas por errores del sistema.

A su juicio, el desafío está en lograr un equilibrio que permita establecer reglas claras sin frenar la innovación. “Lo que está intentando hacer la ley es no prohibir, pero establecer reglas de cómo usamos esta nueva tecnología, lo cual está bien, pero pondría ojo en que ojalá la ley tampoco fuese tan represora”, sostuvo.

Aspectos legales de la Inteligencia Artificial

Desde el ámbito jurídico, el académico del Departamento de Derecho Privado de la Facultad de Ciencias Jurídicas y Sociales de la Universidad de Concepción, Ricardo Concha, planteó que el sistema legal chileno ya cuenta con herramientas para abordar la responsabilidad civil en estos casos, aunque reconoce dificultades prácticas.

“La responsabilidad por daños causados por sistemas de inteligencia artificial no requiere cambiar completamente las reglas actuales. En principio, se puede trabajar con lo que ya existe en el Código Civil: que haya un daño, y que alguien distinto a la víctima lo haya causado con culpa”, explicó.

Sin embargo, el académico advirtió que el principal problema radica en la aplicación de estas normas. En términos simples, aunque el marco legal existe, resulta complejo determinar responsabilidades cuando los sistemas de IA operan de manera opaca.

“Muchas veces no es posible entender con claridad cómo llegaron a una decisión. Eso hace muy difícil identificar qué falló y quién debe responder”, afirmó.

Concha también fue crítico respecto a la ampliación de la responsabilidad que propone el proyecto, particularmente en relación con los daños imprevistos. A su juicio, establecer que alguien debe responder no es suficiente si no se puede probar lo ocurrido.

“No basta con decir que alguien responde, si no se puede probar qué ocurrió”, señaló, advirtiendo que esto podría dificultar la aplicación efectiva de la ley.

En esa línea, enfatizó la importancia de avanzar en mayor transparencia y trazabilidad de los sistemas de IA. Según indicó, si no se logra comprender mínimamente cómo funcionan estos sistemas, los principios básicos de la responsabilidad civil se vuelven difíciles de aplicar en la práctica.

Además, advirtió que el proyecto no define con suficiente claridad el rol de cada actor involucrado, lo que podría generar confusión. “Se puede llegar a una situación en que todos parecen responsables, pero en la práctica no queda claro a quién exigirle”, sostuvo.

Otro de los puntos críticos identificados por el académico es la falta de herramientas que faciliten la prueba en eventuales litigios. En su opinión, el proyecto reconoce el problema, pero deja abiertos aspectos clave, como la definición de qué constituye una decisión de un sistema de IA o cómo demostrar que esta causó un daño específico.

Cedida.

Protección de las personas

Desde una perspectiva más técnica y ética, la directora de GenIA UdeC, Alejandra Maldonado, valoró el enfoque del proyecto en cuanto a la protección de las personas, aunque destacó la necesidad de incorporar estándares internacionales.

En sus palabras, “regular la inteligencia artificial, sobre todo la IA generativa, exige asegurar que estos sistemas operen en favor de las personas, con responsabilidad clara de quienes los desarrollan, implementan y utilizan”.

Maldonado explicó que organismos como la Unesco han establecido lineamientos que apuntan a la supervisión humana, la evaluación de riesgos, la transparencia y la prevención de daños a lo largo de todo el ciclo de vida de los sistemas.

En ese contexto, destacó herramientas como la evaluación de impacto ético, que permite revisar si un sistema respeta principios fundamentales y exige mayor claridad sobre su funcionamiento.

Asimismo, advirtió que el avance de la inteligencia artificial conlleva un aumento en los riesgos asociados. Citando reportes internacionales recientes, señaló que “a medida que los sistemas de IA mejoran sus capacidades, también crecen sus riesgos”, lo que hace indispensable contar con mecanismos concretos de control, monitoreo y rendición de cuentas.

Para la académica, uno de los puntos centrales es asumir que ningún sistema es completamente seguro. En ese sentido, planteó que es fundamental diseñar estrategias de mitigación adecuadas a cada contexto y trabajar en equipos interdisciplinarios que integren no solo conocimientos técnicos, sino también perspectivas éticas y sociales.

Etiquetas

Notas Relacionadas