Riesgos éticos asociados con la inteligencia artificial

Autor:
Ricardo Naranjo Faccini
Fecha de publicación:
Monday 17 November 2025
Tema:
Inteligencia artificial
Revisado por :
Ricardo Naranjo Faccini
(Monday 17 November 2025)

Resumen

Descargue aquí la presentación

La rápida expansión de la inteligencia artificial (IA), especialmente en su variante generativa, ha transformado de manera profunda los sistemas sociales, económicos, laborales y ambientales. En Colombia, estas tecnologías se incorporan aceleradamente en sectores críticos como finanzas, salud, educación, justicia, comunicaciones y administración pública, en un contexto marcado por desigualdad digital, vulnerabilidad a la desinformación y dependencia tecnológica de proveedores extranjeros. Este artículo analiza los principales riesgos éticos asociados al uso de IA en el país —incluyendo opacidad algorítmica, sesgos y discriminación, amenazas a la privacidad, contenido sintético y suplantación digital, desplazamiento laboral, impactos energéticos y presiones ambientales vinculadas a la infraestructura de centros de datos— y evalúa sus implicaciones para los derechos fundamentales, la sostenibilidad y la gobernanza democrática. A partir de este diagnóstico, se proponen recomendaciones orientadas a la creación de un marco de gobernanza robusto y equilibrado, que incluye la obligación de explicabilidad en decisiones automatizadas, el etiquetado obligatorio de contenido sintético, un registro nacional de modelos utilizados por el Estado, auditorías independientes para sistemas de alto riesgo, la prohibición de imitaciones digitales no autorizadas, reglas claras para el uso de datos públicos, criterios de sostenibilidad ambiental en infraestructura digital y esquemas de responsabilidad escalonada para sistemas autónomos. El artículo concluye que la regulación de la IA en Colombia debe ser flexible, basada en riesgo y sustentada en capacidades institucionales fortalecidas, con el fin de garantizar que estas tecnologías se implementen de manera segura, sostenible y en beneficio del interés público.

Abstract:

The rapid expansion of artificial intelligence (AI), particularly generative AI, has deeply transformed social, economic, labor, and environmental systems. In Colombia, these technologies are rapidly being integrated into critical sectors such as finance, healthcare, education, justice, communications, and public administration, within a context marked by digital inequality, vulnerability to disinformation, and technological dependence on foreign providers. This article examines the main ethical risks associated with AI deployment in the country—including algorithmic opacity, bias and discrimination, threats to privacy, synthetic content and digital impersonation, labor displacement, energy demands, and environmental pressures arising from data center infrastructure—and evaluates their implications for fundamental rights, sustainability, and democratic governance. Based on this assessment, the article proposes regulatory recommendations aimed at establishing a robust and balanced AI governance framework, including mandatory explainability for automated decisions, required labeling of synthetic content, a national registry of AI systems used by the State, independent audits for high-risk systems, the prohibition of unauthorized digital impersonation, clear rules for the use of public data, environmental sustainability standards for digital infrastructure, and tiered liability schemes for autonomous systems. The article concludes that AI regulation in Colombia must be flexible, risk-based, and supported by strengthened institutional capacities to ensure that these technologies are deployed safely, sustainably, and in service of the public interest.


1. Introducción

La acelerada evolución de la inteligencia artificial (IA) en la última década ha transformado profundamente la economía digital, los sistemas de producción, la prestación de servicios públicos y la interacción humana con las tecnologías de información. Modelos generativos capaces de producir texto, imágenes, audio y video con niveles de realismo nunca antes alcanzados han ampliado las posibilidades de innovación y productividad; sin embargo, también han agudizado dilemas éticos, sociales y jurídicos que desafían los marcos regulatorios existentes. En este contexto, los Estados enfrentan el reto de equilibrar la promoción del desarrollo tecnológico con la protección de derechos fundamentales, la seguridad ciudadana y la preservación de la confianza pública en las instituciones democráticas.

Colombia no es ajena a esta transformación. La creciente adopción de sistemas de IA en sectores como finanzas, salud, educación, justicia, comunicaciones y administración pública, junto con la disponibilidad masiva de datos públicos y privados, ha generado oportunidades sin precedentes para modernizar el país. Al mismo tiempo, ha expuesto vulnerabilidades significativas relacionadas con privacidad, decisiones automatizadas, gestión de datos personales, riesgos de desinformación, suplantación digital, sesgos algorítmicos y opacidad en los procesos de inferencia. Tales riesgos adquieren especial relevancia en un país que enfrenta desafíos estructurales en materia de seguridad digital, desigualdad tecnológica y confianza institucional.

Los recientes avances en IA generativa intensifican estas preocupaciones. La facilidad con la que hoy se pueden producir videos, audios y textos falsificados —difíciles de distinguir de los reales— incrementa el riesgo de manipulación política, fraude, extorsión y afectación reputacional. Simultáneamente, la dependencia del Estado y del sector privado en sistemas automatizados para apoyar decisiones de alto impacto exige garantías de transparencia, auditabilidad y responsabilidad, especialmente cuando dichas decisiones afectan la vida, el bienestar o los derechos de los ciudadanos.

Frente a este panorama, diversos países han iniciado procesos regulatorios orientados a establecer límites, obligaciones y estándares para el desarrollo y uso responsable de la IA. La Unión Europea avanza con el AI Act; Estados Unidos ha promulgado órdenes ejecutivas para regular sistemas de alto riesgo; China ha implementado políticas estrictas sobre contenido sintético; y América Latina comienza a diseñar marcos propios de gobernanza algorítmica. Colombia, por su parte, tiene ante sí la oportunidad histórica de estructurar una normativa que no solo responda a los riesgos emergentes, sino que además incentive la innovación, refuerce la competitividad y fortalezca las capacidades institucionales para la supervisión tecnológica.

La expansión acelerada de la inteligencia artificial también plantea desafíos energéticos y ambientales de creciente importancia. Los modelos de gran escala requieren infraestructura computacional intensiva, con centros de datos que consumen cantidades significativas de electricidad y agua para operación y enfriamiento. En un país como Colombia, donde la matriz energética enfrenta presiones derivadas del cambio climático, la variabilidad hídrica y el crecimiento de la demanda digital, la instalación de infraestructura para IA puede generar tensiones sobre recursos naturales estratégicos. Por tanto, cualquier análisis ético y regulatorio debe considerar no solo los riesgos sociales y de derechos fundamentales, sino también los impactos ambientales asociados a la expansión de estas tecnologías.

Este artículo surge como un insumo para ese debate regulatorio. A partir del análisis presentado en la conferencia sobre riesgos éticos en la IA ante la Comisión Sexta del Congreso de la República, se examinan las implicaciones éticas y sociales del uso actual de la IA en Colombia y se proponen lineamientos para un marco regulatorio equilibrado. Entre las recomendaciones desarrolladas se incluyen: la obligación de explicabilidad en decisiones automatizadas; el etiquetado obligatorio de contenido sintético; la creación de un registro nacional de modelos de IA utilizados por el Estado; la implementación de auditorías independientes para sistemas de alto riesgo; la prohibición de modelos que imiten personas sin consentimiento; normas claras sobre el uso de datos públicos para entrenamiento; y un esquema de responsabilidad escalonada para daños causados por sistemas autónomos.

El objetivo central es proporcionar una reflexión crítica, académicamente fundamentada y aplicada al contexto colombiano, que contribuya a la construcción de políticas públicas robustas, adaptativas y orientadas al interés general. De esta manera, se busca apoyar al país en el desafío de avanzar hacia un ecosistema de IA confiable, transparente, seguro y alineado con los valores democráticos que guían la acción estatal y la convivencia social.

2. Marco Teórico

La inteligencia artificial (IA) se ha consolidado como una disciplina transversal que integra técnicas computacionales de aprendizaje estadístico, representación del conocimiento, procesamiento de lenguaje natural, visión computacional y toma de decisiones automatizada. Desde sus orígenes en la década de 1950, la IA ha evolucionado desde modelos simbólicos basados en reglas hasta sistemas contemporáneos fundamentados en aprendizaje profundo y redes neuronales de gran escala. Esta evolución ha permitido la creación de modelos generativos y predictivos capaces de operar en escenarios de alta complejidad, lo que amplifica tanto su potencial transformador como los riesgos asociados a su uso.

En el ámbito conceptual, es necesario diferenciar entre tres categorías fundamentales: (i) IA determinista, basada en reglas explícitas y decisiones programadas; (ii) IA predictiva, que aprende patrones a partir de datos estructurados y no estructurados para generar pronósticos o clasificaciones; y (iii) IA generativa, capaz de producir contenido nuevo, como texto, imágenes, audio o video, mediante técnicas como redes adversariales generativas (GANs), transformadores y modelos de difusión. Esta última categoría introduce desafíos inéditos en lo que respecta a autenticidad, propiedad intelectual, integridad informacional, manipulación mediática y seguridad nacional.

Adicionalmente, los conceptos de datos, algoritmos y modelos constituyen la base técnica sobre la cual se construyen los sistemas de IA. Los datos representan insumos fundamentales cuya calidad, representatividad y nivel de sesgo determinan en gran medida el comportamiento del modelo. Los algoritmos permiten procesar y extraer patrones de estos datos, mientras que los modelos resultantes son entidades matemáticas que capturan relaciones complejas entre variables. Este proceso plantea riesgos inherentes: un modelo entrenado con datos incompletos, sesgados o no autorizados reproducirá inequidades estructurales, violará derechos de privacidad o tomará decisiones injustas.

Desde una perspectiva ética y social, diversos autores han señalado cuatro dimensiones críticas para la gobernanza responsable de la IA:

  • Transparencia y explicabilidad: Se refiere a la capacidad de comprender, interpretar y justificar el funcionamiento de sistemas algorítmicos. La “opacidad” o “caja negra” de modelos complejos genera incertidumbre y dificulta la rendición de cuentas, especialmente en aplicaciones de alto impacto como salud, justicia y seguridad.

  • Equidad y no discriminación: Los modelos de IA pueden perpetuar o amplificar sesgos presentes en los datos de entrenamiento, afectando negativamente a grupos vulnerables o históricamente marginados. La equidad algorítmica busca mitigar estas conductas mediante técnicas de debiasing, métricas de justicia y supervisión regulatoria.

  • Privacidad y protección de datos: La IA moderna requiere grandes cantidades de datos, muchos de ellos personales o sensibles. Esto plantea riesgos relacionados con consentimiento, anonimización, reutilización indebida de información y vigilancia masiva.

  • Responsabilidad y atribución de daños: En sistemas autónomos, determinar quién responde por errores, accidentes o decisiones perjudiciales constituye un desafío jurídico emergente. La responsabilidad puede recaer en los desarrolladores, operadores, proveedores o usuarios, dependiendo del diseño normativo.

En el caso de la IA generativa, la literatura reciente destaca además los conceptos de alucinación algorítmica, fenómeno en el cual la IA produce información falsa presentada con alta confianza; contenido sintético, que incluye deepfakes y material digital indistinguible de contenido real; y clonación digital, que abarca la reproducción no autorizada de voces, rostros o identidades mediante modelos entrenados con muestras públicas o privadas.

En cuanto a modelos regulatorios, tres enfoques predominan en la investigación internacional:

  • Regulación basada en riesgo (risk-based regulation): Promovida por la Unión Europea, clasifica las aplicaciones de IA según su nivel de riesgo potencial (bajo, medio, alto y prohibido).

  • Regulación sectorial: Implementada en Estados Unidos, donde sectores como salud, finanzas o transporte adoptan reglas específicas para el uso de IA.

  • Regulación de contenido y conducta: Predominante en países asiáticos, especialmente China, con énfasis en control de deepfakes, ciberseguridad y verificación obligatoria de identidad.

Estos marcos teóricos son relevantes para el análisis colombiano, dado que cualquier aproximación regulatoria debe considerar el equilibrio entre protección de derechos, promoción de innovación, independencia tecnológica y capacidades institucionales de supervisión.

La literatura contemporánea ha documentado un cambio significativo en la naturaleza del impacto laboral de la inteligencia artificial. A diferencia de automatizaciones anteriores, centradas principalmente en tareas repetitivas y manuales, los sistemas actuales —especialmente aquellos basados en modelos generativos— son capaces de replicar funciones creativas, analíticas y estratégicas tradicionalmente asociadas a trabajadores calificados. Este desplazamiento potencial de empleos de “cuello blanco” ha originado debates sobre la reconfiguración de la demanda laboral, la polarización del mercado de trabajo y la necesidad de nuevas competencias digitales. No obstante, diversas teorías económicas sostienen que, si bien la IA puede eliminar ciertos roles, también genera oportunidades emergentes que se articulan con nuevas industrias y modelos productivos, en un proceso de destrucción y creación de empleo característico de las transiciones tecnológicas.

Diversos estudios han documentado que el entrenamiento de modelos avanzados de IA puede consumir más energía que la utilizada por miles de hogares en un año, y que los centros de datos requieren grandes volúmenes de agua para garantizar su refrigeración eficiente. Este fenómeno ha dado lugar a un nuevo campo de estudio conocido como “sostenibilidad algorítmica”, que examina la huella ecológica de la infraestructura que soporta la IA. En el contexto colombiano, la disponibilidad de energía limpia, la capacidad instalada, la resiliencia climática y el acceso al agua se convierten en variables críticas para evaluar la viabilidad ambiental de la expansión de centros de datos y clusters de cómputo avanzado.

Finalmente, la gobernanza algorítmica, concepto emergente en la literatura, propone una visión integral que articula principios éticos, marcos legales, diseño responsable, participación ciudadana, mecanismos de auditoría y estructuras institucionales robustas. Este enfoque es particularmente pertinente para países con desafíos en capacidad técnica estatal, brechas digitales y vulnerabilidad a la desinformación, factores presentes en el contexto colombiano.

3. Riesgos Éticos y Desafíos para Colombia

El uso creciente de sistemas de inteligencia artificial en Colombia presenta un conjunto de riesgos éticos que requieren una comprensión profunda y un abordaje regulatorio integral. Estos riesgos se intensifican por características particulares del contexto colombiano, como la desigualdad digital, la vulnerabilidad a la desinformación, las limitaciones en la capacidad técnica del Estado, la dependencia tecnológica de proveedores extranjeros y la debilidad de los mecanismos de supervisión de tecnologías emergentes. En este capítulo se examinan los principales riesgos éticos asociados a la IA y su manifestación en el entorno nacional.

3.a) Opacidad algorítmica y falta de explicabilidad

Uno de los riesgos más críticos es la opacidad inherente a los modelos de IA avanzados, especialmente los basados en aprendizaje profundo. La imposibilidad de comprender o explicar por qué un modelo toma una decisión constituye una amenaza para la transparencia y la confianza en sistemas utilizados en ámbitos sensibles como justicia, salud, educación o acceso a beneficios sociales. En Colombia, donde el Estado delega cada vez más tareas en plataformas digitales y algoritmos, una decisión opaca puede profundizar la percepción de arbitrariedad institucional o erosionar derechos fundamentales como el debido proceso y la igualdad.

3.b) Sesgos y discriminación algorítmica

Los modelos entrenados con datos históricos pueden replicar y amplificar sesgos existentes en la sociedad. Colombia presenta profundas brechas estructurales asociadas a género, etnia, territorio, discapacidad y nivel socioeconómico. Sistemas de IA desplegados en procesos como focalización de subsidios, evaluación crediticia, selección laboral o análisis de riesgo judicial podrían discriminar de manera sistemática a ciertos grupos poblacionales si no se realizan evaluaciones rigurosas de equidad algorítmica. La ausencia de estándares nacionales de evaluación de sesgos aumenta la probabilidad de decisiones injustas que afecten a grupos vulnerables.

3.c) Riesgos para la privacidad y el uso indebido de datos personales

La Ley 1581 de 2012 establece un marco robusto de protección de datos en Colombia, pero la aparición de modelos de IA entrenados con grandes volúmenes de información, muchas veces obtenida sin consentimiento explícito, plantea nuevos desafíos. El riesgo se intensifica cuando empresas extranjeras procesan datos de ciudadanos colombianos en jurisdicciones con estándares de protección distintos e inferiores. A esto se suman prácticas emergentes como la reidentificación de datos anonimizados, la inferencia de atributos sensibles y la reutilización de información pública para entrenar modelos con fines comerciales. La IA generativa, además, incrementa la posibilidad de que datos privados aparezcan inadvertidamente en salidas del modelo debido a filtraciones del conjunto de entrenamiento.

3.d) Contenido sintético, desinformación y amenazas a la democracia

La creación de contenido sintético mediante IA generativa representa uno de los riesgos más significativos para la estabilidad institucional. En Colombia, un país con alta polarización política y larga historia de desinformación, la capacidad de generar audios, videos y mensajes falsos indistinguibles de los reales amplifica la posibilidad de manipulación electoral, sabotaje reputacional, extorsión y fraudes. La ausencia de mecanismos legales que obliguen a identificar contenido producido por IA facilita la circulación masiva de deepfakes y reduce la capacidad de ciudadanos y periodistas para distinguir veracidad. Dado que las elecciones locales y nacionales están cada vez más mediatizadas por redes sociales, el riesgo para la integridad democrática es considerable.

3.e) Suplantación digital e imitaciones no autorizadas

La clonación de voces y rostros mediante IA plantea desafíos particulares para la protección de identidad y reputación. Ya se han documentado casos en Colombia y la región donde voces clonadas se utilizan para estafas, manipulaciones políticas o extorsión. La capacidad de generar identidades falsas o de suplantar a figuras públicas incrementa los riesgos asociados a fraude, daño reputacional, violencias de género y explotación digital. La inexistencia de una regulación que prohíba explícitamente la generación de imitaciones de personas sin consentimiento deja un vacío que podría ser aprovechado para cometer delitos de alto impacto.

3.f) Dependencia tecnológica y asimetría con proveedores extranjeros

Colombia depende en gran medida de plataformas internacionales para acceder y explotar sistemas de IA. Esta dependencia genera asimetrías de poder, especialmente cuando las plataformas no cumplen estándares colombianos de tratamiento de datos, ciberseguridad o transparencia. La falta de soberanía tecnológica también limita la capacidad del país para auditar modelos, exigir explicaciones o adaptar sistemas a necesidades locales. La dependencia extrema expone al país a riesgos geopolíticos, cambios unilaterales en condiciones de uso y vulneración de derechos que pueden no tener vías de reparación efectivas en la jurisdicción colombiana.

3.g) Falta de capacidad institucional para supervisión y auditoría

El Estado colombiano carece de infraestructura técnica y talento especializado suficiente para evaluar de manera independiente los sistemas de IA que utiliza o que operan en el territorio nacional. Esto dificulta la supervisión efectiva, limita la capacidad de imponer sanciones y aumenta el riesgo de que entidades públicas adopten IA sin considerar criterios de equidad, seguridad, protección de datos o explicabilidad. La supervisión algorítmica requiere equipos multidisciplinarios con competencias en ciencia de datos, derecho, ética, ingeniería y política pública, áreas donde el país aún presenta importantes brechas.

3.h) Riesgos en sistemas autónomos y responsabilidad legal

El despliegue emergente de sistemas autónomos, como vehículos auto-conducidos, drones inteligentes o robots industriales, plantea desafíos sobre la atribución de responsabilidad en caso de accidentes o daños. La ausencia de un marco jurídico que determine con claridad quién responde —el desarrollador, el proveedor del modelo, el operador, el dueño del dispositivo o la entidad gubernamental que lo aprueba— genera incertidumbre y podría dejar desprotegidos a los ciudadanos. Un esquema de responsabilidad escalonada es necesario para cubrir casos donde múltiples actores influyen en la conducta final del sistema.

3.i) Sustitución de empleos

En el caso colombiano, la posible sustitución de empleos por sistemas de IA plantea un riesgo ético crítico, debido a las vulnerabilidades estructurales del mercado laboral y la alta informalidad económica. La automatización de tareas cognitivas y creativas puede desplazar a trabajadores de sectores que históricamente no habían sido considerados en riesgo, generando incertidumbre social y ampliando brechas de desigualdad. A ello se suma que la velocidad del cambio tecnológico podría superar la capacidad del país para reconvertir la fuerza laboral o generar nuevas oportunidades productivas. El desafío para Colombia consiste, por tanto, en mitigar los impactos inmediatos del desplazamiento laboral, evitando que la transformación digital profundice la exclusión social en lugar de promover el bienestar colectivo.

3.j) El impacto energético y ambiental

Dado que Colombia se ha convertido en un destino atractivo para la instalación de infraestructura destinada a soportar sistemas avanzados de inteligencia artificial —y considerando que para el país también resulta estratégicamente valioso participar de los beneficios asociados a su presencia— es fundamental analizar con rigor los desafíos ambientales que dicha infraestructura podría generar. El despliegue de centros de datos de gran escala, esenciales para el entrenamiento y operación de modelos de IA, implica un consumo significativo de electricidad y agua, así como una huella de carbono considerable.

En un país donde existen tensiones por disponibilidad hídrica, alta dependencia de fuentes hidroeléctricas y vulnerabilidad a variaciones climáticas, la instalación de infraestructura digital intensiva puede generar presiones sobre recursos naturales críticos. Este desafío ético trasciende el ámbito tecnológico y se conecta directamente con la sostenibilidad ambiental, la equidad territorial y la responsabilidad intergeneracional, ampliando el alcance de los riesgos que Colombia debe considerar en la adopción de IA.

3.k) Necesidad de marco regulatorio

En conjunto, estos riesgos ponen de manifiesto la necesidad de un marco regulatorio colombiano que sea prudente pero no obstructivo, innovador pero garantista, y que promueva tanto el desarrollo tecnológico como la protección efectiva de derechos fundamentales. En el siguiente capítulo, se desarrollan recomendaciones regulatorias orientadas a mitigar estos riesgos y fortalecer la gobernanza de la IA en Colombia.

4. Recomendaciones Regulatorias para Colombia

La aceleración del desarrollo tecnológico exige que los Estados implementen marcos normativos capaces de proteger derechos fundamentales sin inhibir la innovación. Para Colombia, este desafío adquiere particular importancia debido al uso creciente de sistemas de inteligencia artificial en sectores sensibles y a la vulnerabilidad del país frente a fenómenos como desinformación, discriminación algorítmica, opacidad en decisiones automatizadas y dependencia tecnológica de proveedores extranjeros. Con base en el análisis de riesgos presentado en los capítulos anteriores, este capítulo propone un conjunto de recomendaciones regulatorias orientadas a establecer un marco equilibrado, robusto y adaptable para la gobernanza de la IA en el país.

Estas recomendaciones se estructuran siguiendo principios de proporcionalidad, razonabilidad, transparencia, responsabilidad y protección de derechos, alineados con estándares internacionales como el AI Act de la Unión Europea, las directrices de la OCDE y los lineamientos de UNESCO sobre ética en inteligencia artificial.

4.a) Obligación de explicabilidad en decisiones automatizadas

Toda decisión automatizada que afecte derechos individuales —acceso a servicios públicos, asignación de subsidios, trámites judiciales, historial crediticio, resultados educativos o clasificación de riesgos— debe ser explicable, comprensible y verificable. La explicabilidad implica que la entidad responsable pueda ofrecer al ciudadano una descripción clara sobre los factores determinantes de la decisión, la lógica general del sistema y los datos utilizados. Este principio es esencial para garantizar el debido proceso, facilitar la auditoría pública y fortalecer la confianza en instituciones que utilicen IA como herramienta de apoyo en la toma de decisiones.

Colombia requiere disposiciones explícitas que prohíban decisiones totalmente opacas en ámbitos de alto impacto y que obliguen a mantener mecanismos de revisión humana para decisiones sensibles. La explicabilidad no solo mitiga riesgos, sino que también promueve buenas prácticas de diseño y uso responsable de IA en el sector público y privado.

4.b) Etiquetado obligatorio de contenido sintético (watermark)

El auge de contenido sintético generado mediante IA, incluyendo videos alterados (deepfakes), audios clonados y noticias fabricadas, representa una amenaza significativa para la democracia y la seguridad digital. Para mitigar estos riesgos, se recomienda que la legislación exija que todo contenido generado total o parcialmente por IA incluya un marcador verificable —visible o criptográfico— que permita identificar su origen.

Este requisito facilita la investigación de delitos informáticos, reduce la propagación de desinformación, protege la integridad de procesos electorales y fortalece la confianza pública en la autenticidad del contenido digital. Adicionalmente, se recomienda que las plataformas digitales que operan en Colombia tengan la obligación de detectar, etiquetar y alertar sobre contenido sintético en tiempo real cuando circule en contextos de riesgo.

4.c) Registro nacional de modelos de IA utilizados por el Estado

Para garantizar transparencia y rendición de cuentas, es fundamental establecer un Registro Nacional de Sistemas de IA del Estado, donde cada entidad pública deba declarar:

  • los modelos de IA que utiliza,

  • la finalidad del sistema,

  • las fuentes de datos empleadas,

  • los proveedores o desarrolladores,

  • las evaluaciones de riesgo realizadas,

  • los responsables del tratamiento y supervisión.

Este registro permitiría un monitoreo continuo, facilitaría auditorías, promovería estandarización técnica y evitaría la adopción de IA de alto riesgo sin una evaluación previa. También fortalecería la gobernanza algorítmica interinstitucional y la cooperación entre agencias.

4.d) Auditorías independientes para IA de alto riesgo

Los sistemas de IA con impacto significativo en derechos fundamentales deben someterse a auditorías técnicas, éticas y jurídicas realizadas por terceros independientes. Estas auditorías deben evaluar aspectos como:

  • calidad de los datos de entrenamiento,

  • sesgos discriminatorios,

  • niveles de seguridad cibernética,

  • niveles de explicabilidad,

  • cumplimiento normativo,

  • mecanismos de supervisión humana,

  • potencial de daño.

La auditoría independiente es esencial para evitar conflictos de interés, particularmente cuando las entidades estatales adquieren modelos desarrollados por proveedores internacionales cuyo funcionamiento interno no es completamente accesible. Las auditorías deben realizarse de manera periódica y antes de la implementación de sistemas de alto riesgo.

4.e) Prohibición de sistemas que imiten personas sin consentimiento

La clonación digital de identidad, ya sea mediante voz, imagen, estilo de escritura o comportamiento, debe estar estrictamente regulada. Se recomienda la prohibición explícita de generar o difundir imitaciones digitales de personas reales —incluyendo figuras públicas— sin su consentimiento informado.

Esta regulación es necesaria para proteger:

  • la identidad individual,

  • la integridad reputacional,

  • la dignidad y privacidad,

  • la seguridad digital ante extorsión o fraude,

  • la integridad del discurso público.

Asimismo, se debe contemplar una agravante penal cuando estas imitaciones se usen con fines de manipulación electoral, difusión maliciosa de información o violencia de género.

4.f) Reglas sobre el uso de datos públicos como insumo de entrenamiento

Los datos abiertos del Estado constituyen un recurso estratégico que puede impulsar la innovación en IA, pero su uso requiere límites claros. Se recomienda que la normatividad establezca:

  • prohibición de utilizar datos personales sensibles para entrenar IA,

  • requerimiento de anonimización robusta y verificable,

  • transparencia en el uso de datos públicos por parte de empresas privadas,

  • restricciones al uso comercial de datos estatales,

  • creación de licencias específicas que regulen la reutilización de información gubernamental.

Estas reglas buscan equilibrar la apertura de datos con la protección de derechos ciudadanos, evitando que los datos públicos colombianos sean explotados en beneficio unilateral de actores externos sin retorno para la sociedad.

4.g) Responsabilidad escalonada en sistemas autónomos

La introducción de IA en sistemas autónomos, como vehículos auto-conducidos o robots industriales, exige un marco jurídico claro que defina la responsabilidad en caso de daño. Se propone un esquema escalonado donde la responsabilidad se asigna según la causa del fallo:

  • Desarrollador: errores en el diseño o entrenamiento del modelo.

  • Proveedor del servicio de IA: fallas en mantenimiento, actualizaciones o supervisión remota.

  • Operador o usuario: uso negligente o indebido del sistema.

  • Entidad pública reguladora: aprobación irregular o sin evaluación adecuada.

Este enfoque evita vacíos legales y garantiza que las víctimas tengan rutas de reparación efectivas. También incentiva a los proveedores a adoptar estándares más altos de seguridad algorítmica.

4.h) Construcción de capacidades institucionales y educación digital

Ningún marco normativo será efectivo sin capacidad estatal para implementarlo. Colombia requiere programas nacionales de:

  • formación técnica para funcionarios públicos,

  • creación de laboratorios de auditoría algorítmica,

  • fortalecimiento de la ciberseguridad estatal,

  • sensibilización ciudadana sobre riesgos y beneficios de la IA,

  • incentivos para investigación y desarrollo en IA local.

Este componente es esencial para garantizar autonomía tecnológica y soberanía digital.

4.i) Incorporar estrategias de transición laboral

Para enfrentar los efectos laborales de la IA, la regulación colombiana debe incorporar estrategias de transición laboral justa que incluyan mecanismos de formación continua, programas de reconversión profesional y políticas de incentivos para la creación de nuevos empleos en sectores de alto valor agregado. Asimismo, es recomendable establecer obligaciones para las empresas que adopten IA de alto impacto para que elaboren evaluaciones de impacto socio-laboral, reporten riesgos de sustitución de empleos y contribuyan financieramente a programas de capacitación. De igual forma, el Estado debería promover ecosistemas de innovación que fomenten el surgimiento de nuevas industrias digitales capaces de absorber la mano de obra desplazada, asegurando que la transformación tecnológica se traduzca en oportunidades laborales sostenibles y equitativas.

4.j) Protección ambiental ante el potencial montaje de infraestructura IA

Es recomendable que el marco regulatorio colombiano incorpore criterios de sostenibilidad en las autorizaciones, supervisión y operación de centros de datos y plataformas algorítmicas. Estos criterios pueden incluir estándares mínimos de eficiencia energética, exigencias de uso responsable del agua, incentivos para el aprovechamiento de energías renovables, reportes periódicos de huella de carbono y mecanismos de compensación ambiental obligatoria. Asimismo, debe promoverse la transparencia en los consumos de los proveedores tecnológicos que operan en el país, así como la evaluación de impacto ambiental previo al despliegue de infraestructura de gran escala. Estas medidas no buscan obstaculizar la innovación, sino asegurar que el desarrollo de la IA en Colombia sea ambientalmente responsable y alineado con los compromisos climáticos nacionales.

Las recomendaciones aquí presentadas ofrecen una base para un marco regulatorio equilibrado que promueve el desarrollo tecnológico sin sacrificar la protección de derechos fundamentales. La regulación de la IA no debe entenderse como una barrera a la innovación, sino como un instrumento para garantizar que su adopción ocurra de manera responsable, segura y alineada con los intereses de la sociedad colombiana.

5. Discusión

El análisis de riesgos éticos y de las recomendaciones regulatorias para la inteligencia artificial en Colombia revela una tensión estructural entre innovación tecnológica, protección de derechos fundamentales y capacidad institucional. Esta tensión no es exclusiva del país; sin embargo, en el caso colombiano se manifiesta con particular intensidad debido a factores como la desigualdad digital, la dependencia de plataformas tecnológicas extranjeras, la limitada infraestructura estatal para auditoría algorítmica y la fragilidad del ecosistema nacional de investigación en IA.

Un primer elemento de discusión emerge al contrastar la experiencia colombiana con tendencias internacionales. Mientras la Unión Europea adopta un enfoque basado en riesgo que regula de manera estricta los usos de alto impacto, Estados Unidos se inclina por un marco más flexible y sectorial, mientras que China prioriza el control de contenido sintético y la seguridad nacional. Colombia, en cambio, carece aún de un marco robusto y debe decidir si seguirá un modelo híbrido, si adaptará marcos internacionales existentes o si intentará desarrollar un sistema de gobernanza propio. Esta decisión no es solamente técnica: implica valores democráticos, prioridades sociales y expectativas de desarrollo económico.

La reciente aprobación de la ley italiana de inteligencia artificial y el avance de un anteproyecto español ilustran dos modelos regulatorios contrastantes que enriquecen el debate internacional sobre la gobernanza de la IA. Italia ha adoptado una normativa con un marcado enfoque antropocéntrico, arraigada en una tradición humanista que sitúa la dignidad y centralidad del ser humano como eje normativo; su legislación incorpora obligaciones específicas para sectores sensibles, refuerza la protección de menores, penaliza el uso malicioso de deepfakes y reconoce expresamente la autoría humana en obras asistidas por IA. En contraste, el anteproyecto español se estructura principalmente alrededor de un régimen sancionador amplio, orientado a prevenir abusos, garantizar la trazabilidad de los sistemas y reforzar la supervisión institucional a través de la Agencia Española de Supervisión de IA.

Otro punto central en la discusión es la necesidad de balancear regulación y competitividad. Una regulación demasiado rígida podría inhibir la innovación, dificultar la creación de empresas de base tecnológica o excluir a Colombia de cadenas globales de valor en IA. Por el contrario, una regulación demasiado débil podría dejar al país vulnerable a prácticas abusivas, explotación de datos, suplantación digital, manipulación informativa y riesgos sistémicos. La clave radica en una regulación inteligente, flexible y basada en evidencia, que no se limite a reproducir modelos extranjeros, sino que responda a las particularidades del contexto nacional.

La discusión también debe considerar la distribución de poder entre los distintos actores involucrados en el desarrollo y uso de IA. Las grandes empresas internacionales concentran la mayor parte de los recursos computacionales, los modelos avanzados y las capacidades técnicas; mientras que los Estados del sur global —incluido Colombia— dependen en gran medida de estos proveedores. Esto genera un problema de asimetría tecnológica que puede traducirse en una pérdida de soberanía, dificultades para auditar modelos opacos y riesgos para la protección de datos ciudadanos. En este sentido, las recomendaciones de registro de modelos utilizados por el Estado, auditorías independientes y reglas claras sobre uso de datos públicos resultan esenciales para reequilibrar la relación entre el Estado colombiano y los proveedores de IA.

Asimismo, la discusión evidencia que, más allá de los aspectos técnicos, los riesgos de la IA están profundamente conectados con la cultura política del país. En Colombia, la desinformación y la manipulación mediática tienen un impacto significativo en la opinión pública y en la estabilidad democrática. La capacidad de la IA generativa para producir contenido sintético a gran escala exacerba este problema, especialmente en periodos electorales. La introducción de mecanismos obligatorios de etiquetado de contenido generado por IA, así como sanciones claras para la creación y difusión de imitaciones digitales no autorizadas, se vuelve entonces un componente indispensable de la protección institucional.

El impacto de la IA sobre el empleo plantea un dilema fundamental: aunque la tecnología puede mejorar la productividad y habilitar sectores económicos emergentes, también puede acentuar tensiones sociales si la redistribución de beneficios no se gestiona adecuadamente. Para Colombia, el desafío no radica únicamente en evitar la pérdida de puestos de trabajo, sino en garantizar que las nuevas oportunidades generadas por la economía digital sean accesibles para todos los grupos poblacionales. Este análisis sugiere que la transición hacia un mercado laboral complementado por IA requiere políticas públicas coordinadas, inversiones sostenidas en educación y mecanismos de protección social adaptados a nuevas formas de empleo. De lo contrario, los beneficios económicos de la IA podrían concentrarse en pocos actores, mientras los costos se distribuyen de manera desigual.

Incorporar el análisis ambiental en la gobernanza de la IA es especialmente relevante para Colombia por su vulnerabilidad al cambio climático y por la presión creciente sobre sus recursos hídricos y energéticos. La construcción de nuevos centros de datos —muchos operados por proveedores internacionales— puede generar externalidades negativas que no siempre son visibles para el público ni consideradas en los procesos de toma de decisiones. Este desafío plantea preguntas importantes sobre soberanía energética, uso responsable del agua, distribución territorial de infraestructura digital y obligaciones de compensación ambiental. En consecuencia, el marco regulatorio colombiano no solo debe abordar cuestiones éticas y de derechos, sino también garantizar que el despliegue de IA se realice bajo principios de sostenibilidad y eficiencia energética.

Un componente adicional de discusión se relaciona con la capacidad estatal para implementar las regulaciones propuestas. La experiencia internacional demuestra que leyes sin infraestructura técnica ni personal especializado resultan inefectivas. Por tanto, Colombia deberá invertir en desarrollar equipos interdisciplinarios de supervisión algorítmica, laboratorios de auditoría, mecanismos de cooperación interinstitucional y programas de formación en ética y gobernanza de IA tanto para funcionarios públicos como para la ciudadanía. Sin estas medidas, cualquier marco regulatorio será letra muerta.

Finalmente, la discusión señala que la regulación de la IA debe entenderse como un proceso incremental y adaptativo. La velocidad del cambio tecnológico impide que leyes estáticas respondan adecuadamente a sistemas que evolucionan en escalas mensuales. Por ello, es recomendable que Colombia establezca mecanismos de actualización periódica de la normativa, consultas permanentes con expertos, y análisis de impacto regulatorio continuo. Esta flexibilidad permitirá ajustar el marco legal a medida que la tecnología y sus riesgos evolucionen.

En síntesis, la discusión sugiere que el desafío de regular la IA en Colombia no es solamente jurídico o técnico, sino profundamente social y político. Implica definir el tipo de sociedad digital que el país desea construir, determinar cómo se distribuirán los beneficios y los riesgos de la tecnología, y garantizar que la transformación digital se realice con justicia, transparencia y respeto por la dignidad humana.

6. Conclusiones

El análisis desarrollado en este artículo demuestra que la inteligencia artificial, en sus diversas manifestaciones —particularmente la IA generativa—, constituye una tecnología profundamente transformadora cuyo impacto social, económico y político requiere una respuesta regulatoria oportuna, proporcional y basada en principios éticos. Para Colombia, la incorporación acelerada de sistemas de IA implica oportunidades significativas para modernizar el Estado, impulsar la competitividad y mejorar la prestación de servicios públicos; sin embargo, también expone al país a riesgos que pueden vulnerar derechos fundamentales, profundizar desigualdades y comprometer la estabilidad institucional.

Los riesgos identificados —opacidad algorítmica, sesgos y discriminación, amenazas a la privacidad, desinformación y contenido sintético, suplantación digital, dependencia tecnológica, insuficiencia de capacidades estatales y vacíos en responsabilidad legal— no son abstractos ni hipotéticos. Por el contrario, se manifiestan ya en el contexto colombiano, evidenciados en incidentes documentados de deepfakes políticos, filtraciones de datos personales, decisiones automatizadas sin explicabilidad adecuada, clonación de voz en esquemas de fraude y uso intensivo de plataformas digitales sin supervisión gubernamental sólida.

Frente a estos riesgos, las recomendaciones regulatorias presentadas en este trabajo —obligación de explicabilidad, etiquetado de contenido sintético, registro nacional de sistemas de IA estatales, auditorías independientes, prohibición de imitaciones digitales no autorizadas, reglas claras sobre uso de datos públicos y responsabilidad escalonada— constituyen un marco coherente para orientar la acción legislativa y fortalecer la gobernanza algorítmica en Colombia. Estas medidas, lejos de obstaculizar la innovación, buscan crear un ecosistema de confianza que permita el desarrollo de tecnologías seguras, transparentes y alineadas con el bienestar social.

Un hallazgo transversal del análisis es que la eficacia de cualquier marco regulatorio dependerá de la capacidad institucional del Estado para implementarlo, supervisarlo y actualizarlo. La regulación de la IA no puede limitarse a la expedición de normas; requiere la creación de estructuras permanentes de gobernanza, inversión en talento especializado, cooperación interinstitucional y mecanismos de actualización continua. Asimismo, es indispensable fortalecer la cultura digital de la ciudadanía para que los individuos puedan comprender y utilizar de manera segura las herramientas basadas en inteligencia artificial.

Otro elemento que emerge de manera consistente es la necesidad de armonizar la regulación nacional con estándares internacionales, sin perder de vista las particularidades sociopolíticas de Colombia. El país debe evitar tanto la dependencia normativa de modelos extranjeros como el aislamiento regulatorio. La estrategia ideal implica adoptar principios universales —transparencia, responsabilidad, equidad, seguridad, supervisión humana— y adaptarlos al contexto nacional mediante instrumentos flexibles y revisables.

La inteligencia artificial representa tanto una amenaza como una oportunidad para el empleo en Colombia. Si bien es posible que la IA reemplace tareas creativas, analíticas o estratégicas realizadas por profesionales calificados, también es cierto que la economía digital puede generar nuevos trabajos, industrias y modelos productivos. No obstante, la creación de estas nuevas oportunidades no es automática: depende de políticas públicas deliberadas, inversión educativa y una gobernanza tecnológica orientada al bienestar colectivo. Para que Colombia aproveche el potencial transformador de la IA sin sacrificar la estabilidad social, será necesario promover una transición laboral justa que asegure que los beneficios de la automatización sean distribuidos equitativamente y que ningún grupo de trabajadores quede rezagado ante esta transformación tecnológica.

Cualquier estrategia nacional para el desarrollo y regulación de la inteligencia artificial debe integrar la dimensión ambiental como un componente esencial. La promoción de centros de datos sostenibles, la exigencia de eficiencia energética, el monitoreo del consumo hídrico y la implementación de mecanismos de compensación ambiental resultan fundamentales para evitar que el progreso tecnológico genere impactos ecológicos irreversibles. Garantizar que la IA en Colombia se despliegue bajo principios de responsabilidad ambiental no solo protege los ecosistemas del país, sino que además fortalece la legitimidad social y la sostenibilidad a largo plazo del ecosistema digital nacional.

Finalmente, este artículo subraya que la regulación de la IA debe comprenderse como un acto político y ético, no únicamente técnico. Se trata, en última instancia, de decidir qué tipo de sociedad quiere construir Colombia en la era digital: una en la que la tecnología sirva como herramienta para ampliar derechos, reducir desigualdades y promover la prosperidad colectiva; o una en la que, por falta de regulación o supervisión, la IA reproduzca injusticias, concentre poder y erosione la confianza en las instituciones democráticas.

La comparación entre el enfoque humanista de Italia y el enfoque sancionador de España muestra que la regulación de la inteligencia artificial refleja las prioridades culturales y políticas de cada país. Mientras Italia centra su ley en proteger la dignidad humana y orientar la tecnología hacia valores antropocéntricos, España prioriza la supervisión estricta y la prevención de riesgos mediante un marco altamente garantista. Esta divergencia evidencia que no existe un modelo único de gobernanza, sino marcos que responden a realidades diferentes. Para Colombia, la lección principal es que su regulación debe construirse desde su propio contexto: desigualdad digital, capacidades institucionales, cultura jurídica y desafíos sociales. Adoptar elementos de ambos enfoques —humanismo y control— permitirá diseñar una normativa equilibrada, que promueva la innovación sin sacrificar la protección de los ciudadanos ni la estabilidad democrática.

La oportunidad está abierta. Si Colombia actúa con responsabilidad, visión estratégica y criterio técnico, puede convertirse en un referente regional en la regulación ética y efectiva de la inteligencia artificial. La construcción de un ecosistema de IA seguro, confiable y justo depende de decisiones que se tomen hoy, en un momento en que los riesgos son altos, pero las posibilidades de progreso también lo son.

7. Bibliografía 

Aizenberg, E., & Van den Hoven, J. (2020). Designing for human rights in AI. Big Data & Society, 7(2), 1–14. https://doi.org/10.1177/2053951720949566

Barocas, S., Hardt, M., & Narayanan, A. (2023). Fairness and machine learning. MIT Press. https://fairmlbook.org

BBC Mundo. (s. f.). “Inquietantes casos de IA que manipula y amenaza” suscitan preocupación entre expertos. https://www.bbc.com/mundo/articles/cr7m1r027m9o

BBC Mundo. (s. f.). Geoffrey Hinton, el ganador del Nobel de Física que renunció a Google y denunció los peligros de la inteligencia artificial para la humanidad. https://www.bbc.com/mundo/articles/c8elg9j489eo

Blu Radio. (s. f.). Así funciona la inteligencia artificial en el transporte de carga en Colombia. https://www.bluradio.com/tecnologia/innovacion/asi-funciona-la-inteligencia-artificial-en-el-transporte-de-carga-en-colombia-rs15

Brennan, D., & Kreiss, D. (2022). The power of deepfakes in elections. Political Communication, 39(4), 450–472. https://doi.org/10.1080/10584609.2021.1913585

CBS News. (2023). Google AI chatbot: “Human, please die” threatening message. https://www.cbsnews.com/news/google-ai-chatbot-threatening-message-human-please-die/

Checkpoint Research. (2024). Beyond imagining: How AI is actively used in election campaigns around the world. https://research.checkpoint.com/2024/beyond-imagining-how-ai-is-actively-used-in-election-campaigns-around-the-world/

CNN en Español. (2025, noviembre 19). Suspenden ventas de 'Oso IA' por consejos sexuales. https://cnnespanol.cnn.com/2025/11/19/ciencia/suspenden-ventas-oso-ia-consejos-sexuales-trax/

Computer hoy. (2025, noviembre 21). Italia se blinda ante la IA, y puede que sea el camino a seguir para España https://computerhoy.20minutos.es/tecnologia/italia-se-blinda-ante-ia-puede-que-sea-camino-seguir-para-espana_6661729_0.html

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

DW (Deutsche Welle). (s. f.). Inquietantes casos de IA que manipula y amenaza suscitan preocupación entre expertos. https://www.dw.com/es/inquietantes-casos-de-ia-que-manipula-y-amenaza-suscitan-preocupaci%C3%B3n-entre-expertos/a-73107806

El Tiempo. (s. f.). La IA es cada vez menos sostenible: expertos piden acciones inmediatas para frenar su impacto ambiental. https://www.eltiempo.com/tecnosfera/novedades-tecnologia/la-ia-es-cada-vez-menos-sostenible-expertos-piden-acciones-inmediatas-para-frenar-su-impacto-ambiental-3509037

European Union. (2024). EU Artificial Intelligence Act. Diario Oficial de la Unión Europea.

Floridi, L. (2019). The ethics of artificial intelligence. Oxford University Press.

Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review, 1(1), 1–15. https://doi.org/10.1162/99608f92.8cd550d1

Gobierno de Colombia. (2018). Política Nacional de Explotación de Datos (CONPES 3920). Departamento Nacional de Planeación.

Gobierno de Colombia. (2020). Política Nacional de Inteligencia Artificial (CONPES 3975). Departamento Nacional de Planeación.

Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1, 389–399. https://doi.org/10.1038/s42256-019-0088-2

La Silla Vacía. (s. f.). Este video de Mancuso amenazando a políticos está manipulado. https://www.lasillavacia.com/detector-de-mentiras/falso/detector-este-video-de-mancuso-amenazando-a-politicos-esta-manipulado/

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. https://doi.org/10.1038/nature14539

Ministerio de Tecnologías de la Información y las Comunicaciones de Colombia (MinTIC). (2012). Ley 1581 de 2012: Protección de datos personales.

Ministerio de Tecnologías de la Información y las Comunicaciones de Colombia (MinTIC). (2022). Guía sobre inteligencia artificial responsable.

Mitchell, M. (2023). Artificial intelligence: A guide for thinking humans. Farrar, Straus and Giroux.

Narayanan, A. (2023). AI snake oil: The myths and limits of artificial intelligence. Princeton University Press.

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.

OpenAI. (2023). GPT-4 system card. OpenAI Research.

Organisation for Economic Co-operation and Development (OECD). (2019). OECD principles on artificial intelligence. OECD Publishing.

Pasquale, F. (2020). New laws of robotics: Defending human expertise in the age of AI. Harvard University Press.

People. (s. f.). Expert warns of AI-chatbot risks after recent suicide of teen user. https://people.com/expert-warns-of-ai-chatbot-risks-after-recent-suicide-of-teen-user-8745883

Russell, S., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed.). Pearson.

Semana. (2024). Se reveló la IA Gemini de Google: amenazó de muerte a un estudiante. Semana Tecnología. https://www.semana.com/tecnologia/articulo/se-revelo-la-ia-gemini-de-google-amenazo-de-muerte-a-un-estudiante/202451/

Sutton, R. S., & Barto, A. G. (2018). Reinforcement learning: An introduction (2nd ed.). MIT Press.

Telediario. (s. f.). Colombia: políticos desacreditan denuncias y culpan a la IA. https://www.telediario.mx/internacional/colombia-politicos-desacreditan-denuncias-culpan-ia

The Diary Of A CEO (2025), https://youtu.be/giT0ytynSqg Godfather of AI: They Keep Silencing Me But I’m Trying to Warn Them!

UNESCO. (2021). Recommendation on the ethics of artificial intelligence.

Vinuesa, R., Azizpour, H., Leite, I. et al. (2020). The role of AI in achieving the Sustainable Development Goals. Nature Communications, 11, 233. https://doi.org/10.1038/s41467-019-14108-y

Wwwhatsnew, (2025). Claude, el asistente de Anthropic, implicado en un ciberataque automatizado a escala global https://wwwhatsnew.com/2025/11/17/claude-el-asistente-de-anthropic-implicado-en-un-ciberataque-automatizado-a-escala-global/ 

Xataka. (s. f.). George R. R. Martin le pidió a ChatGPT que escribiera “Juego de Tronos”: ¿hizo bien que va a terminar? https://www.xataka.com/robotica-e-ia/george-r-r-martin-le-pidio-a-chatgpt-que-escribiera-juego-tronos-hizo-bien-que-va-a-terminar-juez

Yahoo News UK. (2023). Google Gemini AI chatbot student threat “Please die”. https://uk.news.yahoo.com/google-gemini-ai-chatbot-student-134603865.html

Zuboff, S. (2019). The age of surveillance capitalism. PublicAffairs.

 

Licencia

 

Licencia de Creative Commons
Error: no se encontró el origen de la referencia está bajo una licencia de Creative Commons Reconocimiento-CompartirIgual 4.0 Internacional.

Ricardo Naranjo Faccini

Desarrollador WWW | Experto en Calidad de Software, Seguridad de la Información y Open Source
Ricardo Naranjo Faccini - Desarrollador y Consultor IT

Originario de Barranquilla, Colombia (1971). Ricardo es un referente en la divulgación del software libre con más de 25 años de trayectoria en el sector tecnológico.

Formación Académica

  • Magíster en Ingeniería de Sistemas y Computación - Universidad de Los Andes (1998)
  • Ingeniero Civil - Universidad de Los Andes (1995)
  • Diplomado en Docencia en Ingeniería - Pontificia Universidad Javeriana (2008)

Trayectoria Profesional y Logros

  • Gerente de Skina IT Solutions: Líder en exportación de software y experto en herramientas libres orientadas a la web.
  • CTO de AuthorsGlobe: Proyecto seleccionado en el "TOP 10" del prestigioso concurso MIT 100K (Massachusetts Institute of Technology).
  • Ex-Gerente de Desarrollo de Negocios NOVELL: Gestión estratégica en Nexsys de Colombia (2004-2005).
  • Docente Catedrático: Experiencia académica en la Universidad Javeriana, Los Andes, Universidad de Manizales y UNAB.

Liderazgo en la Comunidad

Co-fundador de LinuxCol (primera comunidad Linux en Colombia) y colaborador de ACIS-Linux. Ha impartido más de 60 conferencias a nivel nacional, promoviendo la soberanía tecnológica.



Preguntas frecuentes (FAQ)

¿Cómo se pueden mitigar los sesgos algorítmicos en la implementación de IA empresarial?

La mitigación requiere un enfoque multietapa que incluya la <strong>auditoría de representatividad</strong> en los datasets de entrenamiento, el uso de métricas de equidad (fairness metrics) y la implementación de mecanismos de "Human-in-the-loop" para supervisar decisiones críticas.

¿Quién es responsable legal y éticamente por las decisiones automatizadas de una IA?

La responsabilidad recae en la organización que despliega el modelo, lo que exige una estructura de <strong>Gobernanza de IA</strong> clara. Es fundamental establecer trazabilidad algorítmica y "accountability" para explicar cómo se llegó a una determinación específica.

¿Cuáles son los principales riesgos de privacidad al entrenar modelos de IA con datos corporativos?

Los riesgos incluyen la fuga inadvertida de datos sensibles a través de ataques de inversión de modelo. Es imperativo aplicar <strong>Privacidad Diferencial</strong> y asegurar que los datos cumplan normativas como la Ley 1581 en Colombia.

Calle 95 #47-33 int 8

Calle 95 #48-25, Bogotá, Colombia

Tel: +57 300 214 6210

ventas@skinait.com

Desarrollado por Skina IT Solutions