top of page

Responsabilidad Legal por DaƱos Causados por Inteligencia Artificial (IA)

  • Foto del escritor: Beatriz Meythaler
    Beatriz Meythaler
  • 10 jun
  • 5 Min. de lectura

¿Qué sucede si una IA causa un daño? Marco legal, implicaciones civiles y buenas prÔcticas.

Este punto representa un desafío legal creciente para empresas y reguladores, pues la IA, al tomar decisiones autónomas, puede eventualmente causar daños (materiales, económicos o incluso físicos) a personas.

En Ecuador, al no haber (por ahora) una ley especial de responsabilidad civil para IA, se aplican los principios generales de responsabilidad: si una herramienta o producto, incluida la IA, causa un daño por un funcionamiento defectuoso o negligente, alguien debe reparar a la víctima.  

¿Quién es responsable si la IA causa daños?

Dado que la IA no es un sujeto de derecho (no puede ser considerada legalmente responsable por sĆ­ misma), la responsabilidad recae en personas o entidades vinculadas al sistema. Esto usualmente involucra a:Ā 

  • El desarrollador o fabricante:Ā Quien crea el sistema de IA o lo incorpora en un producto. Si el daƱo proviene de un defecto en el diseƱo o entrenamiento de la IA, o por no haber previsto ciertos riesgos, podrĆ­a considerarse un caso de producto defectuoso. Por ejemplo, si un vehĆ­culo autónomo (fabricante) o un software mĆ©dico con IA (desarrollador) falla debido a errores algorĆ­tmicos, el productor puede ser responsable por los daƱos bajo las teorĆ­as de garantĆ­a de producto o negligencia en el diseƱo.Ā 

  • El proveedor o empresa usuaria:Ā Quien implementa o utiliza la IA en su servicio. Si la IA es parte de la prestación de un servicio al consumidor (por ejemplo, un banco usando una IA para aprobar crĆ©ditos, o una plataforma digital con un algoritmo de recomendación), la empresa que la operaĀ tiene la obligación de diligencia. Debe monitorear su desempeƱo y corregir sesgos o fallos. Si por falta de supervisión la IA ocasiona un daƱo (p.ej., niega injustamente un servicio a alguien o emite una recomendación errónea que perjudica al usuario), la empresa podrĆ­a enfrentar reclamaciones por incumplimiento contractual o por prĆ”cticas negligentes.Ā 

  • El profesional que se apoya en IA: En Ć”mbitos como la medicina, el derecho o las finanzas, la IA suele ser una herramienta asistencial. Si un mĆ©dico toma una decisión basĆ”ndose en la sugerencia de una IA diagnóstica, y resulta equivocada causando daƱo al paciente, en principio la responsabilidad profesional recae en el mĆ©dico o la entidad de salud que adoptó esa decisión. La IA es vista como un instrumento, por lo que el profesional no puede eximirse alegando "fue culpa de la mĆ”quina". La diligencia debida exige que las recomendaciones de una IA sean validadas crĆ­ticamente por humanos en casos crĆ­ticos.Ā 

IA defectuosa y responsabilidad solidaria en Ecuador

ree

En Ecuador, el Código Civil y la normativa de Defensa del Consumidor establecen que todo proveedor responde por los daños causados por bienes o servicios defectuosos que ofrece. Una IA defectuosa podría encuadrarse en ese supuesto. Asimismo, si el daño es a un usuario o tercero, podría ejercerse una acción de responsabilidad extracontractual (culpa/negligencia) contra la empresa desarrolladora o usuaria de la IA.  

Cabe destacar que, conforme al artículo 28 de la Ley de Defensa del Consumidor, la responsabilidad por los daños derivados de un defecto en bienes o servicios es solidaria. Esto significa que pueden ser demandados por el consumidor no solo el productor o desarrollador de la IA, sino también el fabricante, importador, distribuidor, comerciante e incluso quien haya puesto su marca en el producto o servicio. Todos ellos comparten la responsabilidad solidaria, sin perjuicio de las acciones de repetición que puedan ejercer entre sí. Es decir, el consumidor afectado no necesita probar quién fue el responsable directo.

šŸ’” Ejemplo:Ā Si un software de IA causa un daƱo por un fallo en su diseƱo, el consumidor puede reclamarle tanto al fabricante como al distribuidor, y cualquiera de ellos debe responder por el total del daƱo.

AdemÔs, el mismo artículo establece que, en caso de devolución del valor pagado, la acción solo podrÔ dirigirse contra el vendedor final, lo que delimita claramente la vía directa de reclamo del consumidor en ese supuesto.

šŸ’” Ejemplo:Ā Si un usuario compra una herramienta de IA en lĆ­nea y esta falla, para recuperar el dinero debe reclamar al vendedorĀ que le hizo la venta, no al desarrollador del software.

Responsabilidad civil y consecuencias económicas

ree

Aunque no sea una "multa" impuesta por el Estado, vale reiterar que, si un sistema de IA causa daƱo a un tercero, la empresa enfrentarƔ posiblemente el pago de indemnizaciones. Estas pueden ser decididas judicialmente o negociadas, pero implican un costo.

Un fallo judicial en contra por negligencia en IA puede obligar a pagar compensaciones cuantiosas (por ejemplo, reparar el daño material y moral causado a varias personas afectadas por una decisión algorítmica errónea).

AdemÔs, de manera indirecta, esa situación podría llevar a penalizaciones indirectas: pérdida de confianza del público o clientes, impacto reputacional, caída en el valor de mercado (para empresas cotizadas), y mayor escrutinio regulatorio.

Tendencias internacionales: hacia una responsabilidad objetiva en IA

ree

A nivel internacional, se reconoce que la legislación actual tiene lagunas frente a los daƱos de IA. La Unión Europea ha propuesto directrices para facilitar que las vĆ­ctimas de daƱos por IA obtengan compensación, introduciendo figuras como la ā€œpresunción de causalidadā€ (que invierte parcialmente la carga de la prueba a favor del afectado) y dejando claro que el fabricante o proveedor serĆ” responsable si el sistema de IA incorporado en su producto no ofrece la seguridad que razonablemente se espera (ver Art. 4 Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence). Es decir, se estĆ” reforzando la idea de responsabilidad objetiva del productor en casos de IA de alto riesgo. Si bien Ecuador aĆŗn no contempla tales disposiciones especiales, estas tendencias podrĆ­an influir en futuras reformas.Ā 

En síntesis, ante la pregunta "¿Quién responde si la IA causa un daño?", la respuesta prÔctica es: responderÔ la empresa o persona detrÔs de la IA, no la IA en sí. Por eso, es crucial desarrollar e implementar la IA con altos estÔndares de calidad y ética. Documentar las decisiones de diseño, las pruebas realizadas y los límites conocidos del sistema puede ayudar a demostrar diligencia en caso de un litigio. También conviene mantener la intervención humana en las decisiones críticas, tanto por prudencia técnica como para reducir riesgos legales.  

¿Qué medidas deben tomar las empresas ante estos riesgos?

Las empresas deben adoptar medidas proactivas para mitigar riesgos legales asociados al uso de sistemas de inteligencia artificial. Entre ellas se incluyen:

  • La prueba y validación exhaustivaĀ de los sistemas antes de su implementación;

  • El monitoreo continuoĀ de su funcionamiento en entornos reales;

  • La definición de planes de contingencia, como la intervención de un operador humano ante fallos del sistema.

¿Es posible limitar la responsabilidad con clÔusulas contractuales?

AdemĆ”s, aunque la inclusión de clĆ”usulas de exención de responsabilidadĀ (ā€œdisclaimersā€) en los contratos de software de IA es una prĆ”ctica extendida, estas no garantizan inmunidad legal. Tales clĆ”usulas no liberan a la empresa de responsabilidad frente a terceros afectados, y pueden ser consideradas nulasĀ si se insertan en contextos de consumo como clĆ”usulas abusivas, segĆŗn la normativa ecuatoriana y principios generales del derecho del consumidor.

Un punto importante es la gestión del riesgo legal mediante seguros. Las empresas que despliegan IA (por ejemplo, en transporte autónomo, fintech, salud, etc.) deberían considerar pólizas de seguro de responsabilidad civil que cubran eventos derivados de fallos de sistemas automatizados. Esto mitiga el impacto financiero de un posible siniestro. 

ĀæNecesitas asesorĆ­a legal sobre IA en Ecuador?

Ab. Beatriz Meythaler
Ab. Beatriz Meythaler

La responsabilidad legal asociada a la inteligencia artificial sigue en desarrollo, pero las empresas ecuatorianas deben tener claro que ya son responsables por las acciones u omisiones de sus sistemas de IA, del mismo modo que lo serĆ­an por las de un empleado o herramienta convencional bajo su control.


Para una asesorƭa especializada y preventiva en este Ɣmbito, contƔctanos en: bmeythaler@lmzabogados.com


ree

aviso legal

Aviso Legal

El contenido de este blog se proporciona únicamente con fines informativos y educativos y no debe considerarse como asesoramiento legal.

 

La normativa en Ecuador está sujeta a modificaciones y actualizaciones que pueden afectar la aplicabilidad y precisión de los contenidos publicados aquí.

 

No garantizamos que la información presentada sea precisa, completa o actualizada en el momento de su lectura. Por lo tanto, no se debe interpretar que los posts pasados reflejan necesariamente la normativa vigente.

 

Recomendamos encarecidamente la consulta con nuestros abogados calificados para obtener asesoramiento específico y personalizado.

Oficinas

Teléfono

Email

Conecta con nosotros

  • LinkedIn
  • Facebook
  • Instagram
  • https://twitter.com/MZAbogadosEC
bottom of page