top of page

Responsabilidad Legal por Daños Causados por Inteligencia Artificial (IA)

¿Qué sucede si una IA causa un daño? Marco legal, implicaciones civiles y buenas prácticas.

Este punto representa un desafío legal creciente para empresas y reguladores, pues la IA, al tomar decisiones autónomas, puede eventualmente causar daños (materiales, económicos o incluso físicos) a personas.

En Ecuador, al no haber (por ahora) una ley especial de responsabilidad civil para IA, se aplican los principios generales de responsabilidad: si una herramienta o producto, incluida la IA, causa un daño por un funcionamiento defectuoso o negligente, alguien debe reparar a la víctima.  

¿Quién es responsable si la IA causa daños?

Dado que la IA no es un sujeto de derecho (no puede ser considerada legalmente responsable por sí misma), la responsabilidad recae en personas o entidades vinculadas al sistema. Esto usualmente involucra a: 

  • El desarrollador o fabricante: Quien crea el sistema de IA o lo incorpora en un producto. Si el daño proviene de un defecto en el diseño o entrenamiento de la IA, o por no haber previsto ciertos riesgos, podría considerarse un caso de producto defectuoso. Por ejemplo, si un vehículo autónomo (fabricante) o un software médico con IA (desarrollador) falla debido a errores algorítmicos, el productor puede ser responsable por los daños bajo las teorías de garantía de producto o negligencia en el diseño. 

  • El proveedor o empresa usuaria: Quien implementa o utiliza la IA en su servicio. Si la IA es parte de la prestación de un servicio al consumidor (por ejemplo, un banco usando una IA para aprobar créditos, o una plataforma digital con un algoritmo de recomendación), la empresa que la opera tiene la obligación de diligencia. Debe monitorear su desempeño y corregir sesgos o fallos. Si por falta de supervisión la IA ocasiona un daño (p.ej., niega injustamente un servicio a alguien o emite una recomendación errónea que perjudica al usuario), la empresa podría enfrentar reclamaciones por incumplimiento contractual o por prácticas negligentes. 

  • El profesional que se apoya en IA: En ámbitos como la medicina, el derecho o las finanzas, la IA suele ser una herramienta asistencial. Si un médico toma una decisión basándose en la sugerencia de una IA diagnóstica, y resulta equivocada causando daño al paciente, en principio la responsabilidad profesional recae en el médico o la entidad de salud que adoptó esa decisión. La IA es vista como un instrumento, por lo que el profesional no puede eximirse alegando "fue culpa de la máquina". La diligencia debida exige que las recomendaciones de una IA sean validadas críticamente por humanos en casos críticos. 

IA defectuosa y responsabilidad solidaria en Ecuador

En Ecuador, el Código Civil y la normativa de Defensa del Consumidor establecen que todo proveedor responde por los daños causados por bienes o servicios defectuosos que ofrece. Una IA defectuosa podría encuadrarse en ese supuesto. Asimismo, si el daño es a un usuario o tercero, podría ejercerse una acción de responsabilidad extracontractual (culpa/negligencia) contra la empresa desarrolladora o usuaria de la IA.  

Cabe destacar que, conforme al artículo 28 de la Ley de Defensa del Consumidor, la responsabilidad por los daños derivados de un defecto en bienes o servicios es solidaria. Esto significa que pueden ser demandados por el consumidor no solo el productor o desarrollador de la IA, sino también el fabricante, importador, distribuidor, comerciante e incluso quien haya puesto su marca en el producto o servicio. Todos ellos comparten la responsabilidad solidaria, sin perjuicio de las acciones de repetición que puedan ejercer entre sí. Es decir, el consumidor afectado no necesita probar quién fue el responsable directo.

💡 Ejemplo: Si un software de IA causa un daño por un fallo en su diseño, el consumidor puede reclamarle tanto al fabricante como al distribuidor, y cualquiera de ellos debe responder por el total del daño.

Además, el mismo artículo establece que, en caso de devolución del valor pagado, la acción solo podrá dirigirse contra el vendedor final, lo que delimita claramente la vía directa de reclamo del consumidor en ese supuesto.

💡 Ejemplo: Si un usuario compra una herramienta de IA en línea y esta falla, para recuperar el dinero debe reclamar al vendedor que le hizo la venta, no al desarrollador del software.

Responsabilidad civil y consecuencias económicas

Aunque no sea una "multa" impuesta por el Estado, vale reiterar que, si un sistema de IA causa daño a un tercero, la empresa enfrentará posiblemente el pago de indemnizaciones. Estas pueden ser decididas judicialmente o negociadas, pero implican un costo.

Un fallo judicial en contra por negligencia en IA puede obligar a pagar compensaciones cuantiosas (por ejemplo, reparar el daño material y moral causado a varias personas afectadas por una decisión algorítmica errónea).

Además, de manera indirecta, esa situación podría llevar a penalizaciones indirectas: pérdida de confianza del público o clientes, impacto reputacional, caída en el valor de mercado (para empresas cotizadas), y mayor escrutinio regulatorio.

Tendencias internacionales: hacia una responsabilidad objetiva en IA

A nivel internacional, se reconoce que la legislación actual tiene lagunas frente a los daños de IA. La Unión Europea ha propuesto directrices para facilitar que las víctimas de daños por IA obtengan compensación, introduciendo figuras como la “presunción de causalidad” (que invierte parcialmente la carga de la prueba a favor del afectado) y dejando claro que el fabricante o proveedor será responsable si el sistema de IA incorporado en su producto no ofrece la seguridad que razonablemente se espera (ver Art. 4 Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence). Es decir, se está reforzando la idea de responsabilidad objetiva del productor en casos de IA de alto riesgo. Si bien Ecuador aún no contempla tales disposiciones especiales, estas tendencias podrían influir en futuras reformas. 

En síntesis, ante la pregunta "¿Quién responde si la IA causa un daño?", la respuesta práctica es: responderá la empresa o persona detrás de la IA, no la IA en sí. Por eso, es crucial desarrollar e implementar la IA con altos estándares de calidad y ética. Documentar las decisiones de diseño, las pruebas realizadas y los límites conocidos del sistema puede ayudar a demostrar diligencia en caso de un litigio. También conviene mantener la intervención humana en las decisiones críticas, tanto por prudencia técnica como para reducir riesgos legales.  

¿Qué medidas deben tomar las empresas ante estos riesgos?

Las empresas deben adoptar medidas proactivas para mitigar riesgos legales asociados al uso de sistemas de inteligencia artificial. Entre ellas se incluyen:

  • La prueba y validación exhaustiva de los sistemas antes de su implementación;

  • El monitoreo continuo de su funcionamiento en entornos reales;

  • La definición de planes de contingencia, como la intervención de un operador humano ante fallos del sistema.

¿Es posible limitar la responsabilidad con cláusulas contractuales?

Además, aunque la inclusión de cláusulas de exención de responsabilidad (“disclaimers”) en los contratos de software de IA es una práctica extendida, estas no garantizan inmunidad legal. Tales cláusulas no liberan a la empresa de responsabilidad frente a terceros afectados, y pueden ser consideradas nulas si se insertan en contextos de consumo como cláusulas abusivas, según la normativa ecuatoriana y principios generales del derecho del consumidor.

Un punto importante es la gestión del riesgo legal mediante seguros. Las empresas que despliegan IA (por ejemplo, en transporte autónomo, fintech, salud, etc.) deberían considerar pólizas de seguro de responsabilidad civil que cubran eventos derivados de fallos de sistemas automatizados. Esto mitiga el impacto financiero de un posible siniestro. 

¿Necesitas asesoría legal sobre IA en Ecuador?

Ab. Beatriz Meythaler
Ab. Beatriz Meythaler

La responsabilidad legal asociada a la inteligencia artificial sigue en desarrollo, pero las empresas ecuatorianas deben tener claro que ya son responsables por las acciones u omisiones de sus sistemas de IA, del mismo modo que lo serían por las de un empleado o herramienta convencional bajo su control.


Para una asesoría especializada y preventiva en este ámbito, contáctanos en: bmeythaler@lmzabogados.com



aviso legal

Aviso Legal

El contenido de este blog se proporciona únicamente con fines informativos y educativos y no debe considerarse como asesoramiento legal.

 

La normativa en Ecuador está sujeta a modificaciones y actualizaciones que pueden afectar la aplicabilidad y precisión de los contenidos publicados aquí.

 

No garantizamos que la información presentada sea precisa, completa o actualizada en el momento de su lectura. Por lo tanto, no se debe interpretar que los posts pasados reflejan necesariamente la normativa vigente.

 

Recomendamos encarecidamente la consulta con nuestros abogados calificados para obtener asesoramiento específico y personalizado.

Oficinas

Teléfono

Email

Conecta con nosotros

  • LinkedIn
  • Facebook
  • Instagram
  • https://twitter.com/MZAbogadosEC
bottom of page