Responsabilidad Legal por DaƱos Causados por Inteligencia Artificial (IA)
- Beatriz Meythaler
- 10 jun
- 5 Min. de lectura
¿Qué sucede si una IA causa un daño? Marco legal, implicaciones civiles y buenas prÔcticas.
Este punto representa un desafĆo legal creciente para empresas y reguladores, pues la IA, al tomar decisiones autónomas, puede eventualmente causar daƱos (materiales, económicos o incluso fĆsicos) a personas.
En Ecuador, al no haber (por ahora) una ley especial de responsabilidad civil para IA, se aplican los principios generales de responsabilidad: si una herramienta o producto, incluida la IA, causa un daƱo por un funcionamiento defectuoso o negligente, alguien debe reparar a la vĆctima.Ā Ā
¿Quién es responsable si la IA causa daños?
Dado que la IA no es un sujeto de derecho (no puede ser considerada legalmente responsable por sĆ misma), la responsabilidad recae en personas o entidades vinculadas al sistema. Esto usualmente involucra a:Ā
El desarrollador o fabricante:Ā Quien crea el sistema de IA o lo incorpora en un producto. Si el daƱo proviene de un defecto en el diseƱo o entrenamiento de la IA, o por no haber previsto ciertos riesgos, podrĆa considerarse un caso de producto defectuoso. Por ejemplo, si un vehĆculo autónomo (fabricante) o un software mĆ©dico con IA (desarrollador) falla debido a errores algorĆtmicos, el productor puede ser responsable por los daƱos bajo las teorĆas de garantĆa de producto o negligencia en el diseƱo.Ā
El proveedor o empresa usuaria:Ā Quien implementa o utiliza la IA en su servicio. Si la IA es parte de la prestación de un servicio al consumidor (por ejemplo, un banco usando una IA para aprobar crĆ©ditos, o una plataforma digital con un algoritmo de recomendación), la empresa que la operaĀ tiene la obligación de diligencia. Debe monitorear su desempeƱo y corregir sesgos o fallos. Si por falta de supervisión la IA ocasiona un daƱo (p.ej., niega injustamente un servicio a alguien o emite una recomendación errónea que perjudica al usuario), la empresa podrĆa enfrentar reclamaciones por incumplimiento contractual o por prĆ”cticas negligentes.Ā
El profesional que se apoya en IA: En Ć”mbitos como la medicina, el derecho o las finanzas, la IA suele ser una herramienta asistencial. Si un mĆ©dico toma una decisión basĆ”ndose en la sugerencia de una IA diagnóstica, y resulta equivocada causando daƱo al paciente, en principio la responsabilidad profesional recae en el mĆ©dico o la entidad de salud que adoptó esa decisión. La IA es vista como un instrumento, por lo que el profesional no puede eximirse alegando "fue culpa de la mĆ”quina". La diligencia debida exige que las recomendaciones de una IA sean validadas crĆticamente por humanos en casos crĆticos.Ā
IA defectuosa y responsabilidad solidaria en Ecuador

En Ecuador, el Código Civil y la normativa de Defensa del ConsumidorĀ establecen que todo proveedor responde por los daƱos causados por bienes o servicios defectuosos que ofrece. Una IA defectuosa podrĆa encuadrarse en ese supuesto. Asimismo, si el daƱo es a un usuario o tercero, podrĆa ejercerse una acción de responsabilidad extracontractual (culpa/negligencia) contra la empresa desarrolladora o usuaria de la IA.Ā Ā
Cabe destacar que, conforme al artĆculo 28 de la Ley de Defensa del Consumidor, la responsabilidad por los daƱos derivados de un defecto en bienes o servicios es solidaria. Esto significa que pueden ser demandados por el consumidor no solo el productor o desarrollador de la IA, sino tambiĆ©n el fabricante, importador, distribuidor, comerciante e incluso quien haya puesto su marca en el producto o servicio. Todos ellos comparten la responsabilidad solidaria, sin perjuicio de las acciones de repeticiónĀ que puedan ejercer entre sĆ.Ā Es decir, el consumidor afectado no necesita probar quiĆ©n fue el responsable directo.
š” Ejemplo:Ā Si un software de IA causa un daƱo por un fallo en su diseƱo, el consumidor puede reclamarle tanto al fabricante como al distribuidor, y cualquiera de ellos debe responder por el total del daƱo.
AdemĆ”s, el mismo artĆculo establece que, en caso de devolución del valor pagado, la acción solo podrĆ” dirigirse contra el vendedor final, lo que delimita claramente la vĆa directa de reclamo del consumidor en ese supuesto.
š” Ejemplo:Ā Si un usuario compra una herramienta de IA en lĆnea y esta falla, para recuperar el dinero debe reclamar al vendedorĀ que le hizo la venta, no al desarrollador del software.
Responsabilidad civil y consecuencias económicas

Aunque no sea una "multa" impuesta por el Estado, vale reiterar que, si un sistema de IA causa daƱo a un tercero, la empresa enfrentarƔ posiblemente el pago de indemnizaciones. Estas pueden ser decididas judicialmente o negociadas, pero implican un costo.
Un fallo judicial en contra por negligencia en IA puede obligar a pagar compensaciones cuantiosas (por ejemplo, reparar el daƱo material y moral causado a varias personas afectadas por una decisión algorĆtmica errónea).
AdemĆ”s, de manera indirecta, esa situación podrĆa llevar a penalizaciones indirectas: pĆ©rdida de confianza del pĆŗblico o clientes, impacto reputacional, caĆda en el valor de mercado (para empresas cotizadas), y mayor escrutinio regulatorio.
Tendencias internacionales: hacia una responsabilidad objetiva en IA

A nivel internacional, se reconoce que la legislación actual tiene lagunas frente a los daƱos de IA. La Unión Europea ha propuesto directrices para facilitar que las vĆctimas de daƱos por IA obtengan compensación, introduciendo figuras como la āpresunción de causalidadā (que invierte parcialmente la carga de la prueba a favor del afectado) y dejando claro que el fabricante o proveedor serĆ” responsable si el sistema de IA incorporado en su producto no ofrece la seguridad que razonablemente se espera (ver Art. 4 Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence). Es decir, se estĆ” reforzando la idea de responsabilidad objetiva del productor en casos de IA de alto riesgo. Si bien Ecuador aĆŗn no contempla tales disposiciones especiales, estas tendencias podrĆan influir en futuras reformas.Ā
En sĆntesis, ante la pregunta "ĀæQuiĆ©n responde si la IA causa un daƱo?", la respuesta prĆ”ctica es: responderĆ” la empresa o persona detrĆ”s de la IA, no la IA en sĆ. Por eso, es crucial desarrollar e implementar la IA con altos estĆ”ndares de calidad y Ć©tica. Documentar las decisiones de diseƱo, las pruebas realizadas y los lĆmites conocidos del sistema puede ayudar a demostrar diligencia en caso de un litigio. TambiĆ©n conviene mantener la intervención humana en las decisiones crĆticas, tanto por prudencia tĆ©cnica como para reducir riesgos legales.Ā Ā
¿Qué medidas deben tomar las empresas ante estos riesgos?
Las empresas deben adoptar medidas proactivas para mitigar riesgos legales asociados al uso de sistemas de inteligencia artificial. Entre ellas se incluyen:
La prueba y validación exhaustiva de los sistemas antes de su implementación;
El monitoreo continuoĀ de su funcionamiento en entornos reales;
La definición de planes de contingencia, como la intervención de un operador humano ante fallos del sistema.
¿Es posible limitar la responsabilidad con clÔusulas contractuales?
AdemĆ”s, aunque la inclusión de clĆ”usulas de exención de responsabilidadĀ (ādisclaimersā) en los contratos de software de IA es una prĆ”ctica extendida, estas no garantizan inmunidad legal. Tales clĆ”usulas no liberan a la empresa de responsabilidad frente a terceros afectados, y pueden ser consideradas nulasĀ si se insertan en contextos de consumo como clĆ”usulas abusivas, segĆŗn la normativa ecuatoriana y principios generales del derecho del consumidor.
Un punto importante es la gestión del riesgo legal mediante seguros. Las empresas que despliegan IA (por ejemplo, en transporte autónomo, fintech, salud, etc.) deberĆan considerar pólizas de seguro de responsabilidad civil que cubran eventos derivados de fallos de sistemas automatizados. Esto mitiga el impacto financiero de un posible siniestro.Ā
ĀæNecesitas asesorĆa legal sobre IA en Ecuador?

La responsabilidad legal asociada a la inteligencia artificial sigue en desarrollo, pero las empresas ecuatorianas deben tener claro que ya son responsables por las acciones u omisiones de sus sistemas de IA, del mismo modo que lo serĆan por las de un empleado o herramienta convencional bajo su control.
Para una asesorĆa especializada y preventiva en este Ć”mbito, contĆ”ctanos en: bmeythaler@lmzabogados.com

