Hosted oneric.vicenti.netvia theHypermedia Protocol

    La inteligencia artificial se ha convertido en una de las tecnologías más influyentes de nuestro tiempo, con efectos que trascienden ampliamente el ámbito técnico. Su capacidad para procesar grandes volúmenes de información, automatizar decisiones y optimizar procesos está transformando la forma en que operan las empresas, se diseñan las políticas públicas y se articulan los sistemas democráticos. Esta expansión acelerada sitúa a la IA en el centro de un debate que ya no es solo tecnológico, sino también económico, ético y político.

    Impacto de la inteligencia artificial en el ámbito empresarial

      En el ámbito empresarial, la IA se percibe como una herramienta de especialización sin precedentes. Diversos estudios destacan su capacidad para ejecutar decisiones rápidas y altamente fiables en tareas técnicas concretas, superando en muchos casos el rendimiento humano. Las empresas la emplean tanto como asistente general como en funciones avanzadas de seguridad, simulación y red teaming, donde los sistemas de IA prueban vulnerabilidades y escenarios de riesgo a gran escala (Villoria, 2025; Betley et al., 2026). Este potencial abre oportunidades claras de eficiencia, innovación y ventaja competitiva.

      Sin embargo, junto a estos beneficios emergen riesgos técnicos complejos que desafían los modelos tradicionales de control. Investigaciones recientes advierten del fenómeno de la “desalineación emergente”: entrenar un sistema de IA para una tarea muy específica puede generar comportamientos imprevistos y dañinos en contextos completamente distintos. En algunos casos, modelos optimizados para escribir código han mostrado conductas extremas o moralmente inaceptables en interacciones generales, sin que estas respuestas hayan sido explícitamente programadas (Betley et al., 2026). Esta imprevisibilidad amplifica la vulnerabilidad de las organizaciones ante ataques sofisticados, como el envenenamiento de datos o la activación de “objetivos ocultos”, y complica enormemente la gestión de la seguridad y la responsabilidad corporativa.

      A ello se suma un riesgo menos visible pero igualmente relevante: la dependencia tecnológica. El uso intensivo de sistemas de IA en el trabajo diario puede erosionar determinadas capacidades cognitivas y sociales de los profesionales, desplazando progresivamente el juicio humano en favor de decisiones automatizadas, con implicaciones directas sobre la cultura organizativa y la autonomía profesional (Villoria, 2025).

    Inteligencia artificial, democracia y dilemas éticos

      Más allá de la empresa, el impacto de la inteligencia artificial plantea interrogantes profundos para la democracia y los derechos fundamentales. Delegar decisiones relevantes en algoritmos opacos puede erosionar la autonomía individual y colectiva, sustituyendo espacios de deliberación política por procesos técnicos difíciles de cuestionar. Según Villoria (2025), existe el riesgo de que una lógica puramente algorítmica termine desplazando la política democrática, al priorizar la eficiencia sobre la empatía, el pluralismo y la dignidad humana.

      Este riesgo se intensifica cuando los sistemas se entrenan bajo enfoques estrictamente utilitaristas, orientados a maximizar resultados agregados. En escenarios extremos, esta lógica podría justificar decisiones “óptimas” desde el punto de vista estadístico, pero moralmente inaceptables, como sacrificar los derechos de minorías o individuos en nombre del bienestar general. Frente a ello, distintos autores defienden una aproximación deontológica que sitúe los principios y la dignidad humana como límites innegociables de la automatización (Villoria, 2025).

      Pese a este panorama, las mismas fuentes subrayan que la IA también puede convertirse en una herramienta para fortalecer tanto la acción pública como la protección de derechos, siempre que se gobierne adecuadamente. Aplicada con criterios de “ética por diseño”, la tecnología puede mejorar la gestión de servicios públicos complejos, apoyar evaluaciones más rigurosas de políticas públicas y, en determinados contextos operativos, ofrecer decisiones más imparciales que las humanas. El horizonte deseable no es la sustitución del ser humano, sino una hibridación en la que la potencia técnica de la máquina complemente —sin anular— la creatividad, el juicio moral y la responsabilidad humanas (Villoria, 2025).

      Es en este contexto amplio, marcado por oportunidades extraordinarias y riesgos sistémicos, donde la gobernanza de la inteligencia artificial adquiere una relevancia estratégica central para las organizaciones. La IA ha dejado de ser un asunto puramente operativo para convertirse en una prioridad transversal que afecta a la competitividad, la reputación y la responsabilidad fiduciaria de las empresas. Informes recientes coinciden en que esta transformación obliga a repensar los mecanismos de control y supervisión, situando a los consejos de administración en un papel clave (Forética, 2024; Esade, 2025).

    Principales Desafíos para los Consejos

      Uno de los principales desafíos a los que se enfrentan los consejos es la brecha de conocimiento y experiencia. Según datos de la "Guía de Consejeros para una IA ética" de Esade, solo el 8% de los consejeros a nivel global cuenta con un perfil tecnológico, y el 79% reconoce tener un conocimiento limitado, mínimo o nulo sobre la IA. En España, aunque casi la mitad de las organizaciones afirma contar con algún perfil tecnológico en el consejo, estos suelen representar una proporción reducida (entre el 10% y el 20%) del total de sus miembros, lo que limita su capacidad de influencia real (RocaJunyent, 2025). Esta falta de alfabetización tecnológica dificulta que el consejo pueda formular las preguntas adecuadas, interpretar riesgos complejos o supervisar con criterio las decisiones automatizadas.

      A esta brecha se suma el fenómeno del llamado techwashing: la tendencia a proyectar una imagen de modernidad tecnológica y compromiso ético que no siempre se corresponde con la realidad operativa. El informe "Gobernanza, ética e inteligencia artificial" de RocaJunyent muestra que muchas organizaciones se autoevalúan con puntuaciones elevadas en "ética declarada", pero reconocen importantes carencias cuando se trata de supervisar de forma efectiva los riesgos algorítmicos o garantizar la explicabilidad de los sistemas que utilizan. Esta asimetría entre discurso y capacidad real plantea un riesgo reputacional significativo y puede erosionar la confianza de inversores, empleados y reguladores.

      Los riesgos inherentes a la propia tecnología constituyen otro desafío para los consejos. La opacidad de muchos sistemas de IA; especialmente los basados en aprendizaje automático, da lugar al conocido problema de la "caja negra", que dificulta entender cómo y por qué se toman determinadas decisiones. Esto es especialmente sensible en ámbitos como la selección de personal o la conseción de créditos, donde los algoritmos pueden amplificar sesgos históricos y generar discriminación involuntaria. Según la Guía de Consejeros de Esade, la falta de transparencia y trazabilidad no solo complica la rendición de cuentas, sino que puede derivar en responsabilidades legales directas para la organización y sus administradores.

      Todo ello se produce en un contexto de creciente presión regulatoria. El panorama legal se describe como un "tsunami regulatorio", liderado por el Reglamento de Inteligencia Artificial de la Unión Europea, que introduce un enfoque basado en el riesgo que impone obligaciones estrictas a determinados usos de la IA. En este marco, ignorar deliberadamente el funcionamiento y los riesgos de estas tecnologías podría interpretarse como un incumplimiento del deber de diligencia de los consejeros (Esade, 2025). La gobernanza de la IA deja así de ser una opción para convertirse en una exigencia legal y fiduciaria.

      El impacto de la IA sobre el empleo y las competencias profesionales añade una dimensión social a este desafío. Los consejos deben supervisar la transición laboral derivada de la automatización, impulsando políticas de reskilling y upskilling que eviten la obsolescencia del capital humano. Sin embargo, el informe de RocaJunyent señala que la inversión en la protección y transformación del talento suele ser inferior a la destinada a la gestión de riesgos legales o reputacionales, lo que revela una visión aún defensiva del fenómeno (RocaJunyent, 2025).

    Principales oportunidades para los Consejos

      Frente a estos desafíos, la inteligencia artificial también abre oportunidades significativas para los consejos de administración. Bien gobernada, puede convertirse en un aliado para mejorar la calidad de la toma de decisiones y el funcionamiento interno del propio consejo. La IA generativa, por ejemplo, permite agilizar la preparación de documentación, analizar grandes volúmenes de información y simular escenarios complejos, liberando tiempo para el debate estratégico. Un artículo de Forética describe la transición del "gobierno reactivo al gobierno aumentado" donde la IA asiste en las deliberaciones como "observadores virtuales" que aportan recomendaciones basadas en datos en tiempo real.

      Además, la adopción de un enfoque ético y responsable en el uso de la IA puede convertirse en una fuente de ventaja competitiva. Las organizaciones que integran principios de responsabilidad algorítmica en su estrategia tienden a generar mayores niveles de confianza entre inversores, consumidores y atraer talento cualificado. De hecho, la Guía de Esade señala que un marco sólido de IA responsable empieza a ser un factor relevante para el acceso al capital externo (Esade, 2025).

      La IA también ofrece herramientas valiosas para avanzar en los criterios ESG, especialmente en la dimensión de gobernanza. La creación de consejos o comités de ética de la IA, así como el uso de modelos más eficientes desde el punto de vista energético —como los small language models frente a los grandes modelos de lenguaje—, permite alinear innovación tecnológica y sostenibilidad.

    Acciones que están tomando los Consejos para incorporar la IA

      Conscientes de este nuevo contexto, muchos consejos están evolucionando desde una postura reactiva hacia una gobernanza más activa y estructurada de la inteligencia artificial. La IA ha pasado a ocupar un lugar recurrente en la agenda estratégica, hasta situarse como uno de los temas prioritarios de cara a 2030, solo por detrás de la ciberseguridad (Esade, 2025). Algunas organizaciones han comenzado incluso a designar responsables ejecutivos específicos para el gobierno de la IA, con el objetivo de traducir principios éticos en métricas, incentivos y procesos concretos.

      También se están creando estructuras formales de supervisión ética, como comités especializados o auditorías internas de los sistemas algorítmicos para supervisar que el despliegue tecnológico se alinee con los valores institucionales. Aunque la mayoría de las empresas realiza algún tipo de revisión interna (61%), el recurso a auditorías externas independientes sigue siendo limitado (21%), lo que pone de relieve un margen de mejora importante en términos de credibilidad y control (RocaJunyent, 2025). Asimismo, gana peso el enfoque de “ética por diseño”, que busca integrar salvaguardas desde las primeras fases de desarrollo tecnológico.

      El perfil del consejero también está cambiando. Ante la brecha de conocimiento existente, muchos miembros de los consejos están invirtiendo en su propia formación en IA, y un número creciente de organizaciones ofrece programas básicos de alfabetización digital a sus órganos de gobierno (Revista Haz, citando a Deloitte, 2026). Aunque la incorporación de expertos tecnológicos sigue siendo minoritaria (46% de empresas en España tiene uno, según RocaJunyent, 2025), la tendencia apunta a consejos más diversos en competencias y más apoyados en asesoramiento externo altamente especializado (Esade, 2025).

      En este proceso, el rol del director jurídico adquiere una relevancia renovada. El director jurídico se consolida como un socio estratégico del consejo, encargado de traducir la complejidad normativa en criterios comprensibles para la toma de decisiones y de integrar el cumplimiento desde las fases iniciales de los proyectos tecnológicos, bajo un enfoque de compliance by design (RocaJunyent, 2025).

      Finalmente, algunos consejos empiezan a aplicar la propia IA para mejorar su funcionamiento interno, desde la automatización de tareas administrativas hasta la incorporación de agentes o “observadores virtuales” que aportan análisis y recomendaciones basadas en datos en tiempo real durante las deliberaciones (Revista Haz, 2026).

      En conjunto, gobernar la inteligencia artificial desde el consejo de administración se asemeja a actualizar el sistema operativo de una organización: no basta con incorporar la tecnología. Es necesario adaptar los perfiles, los procesos y los principios que la sustentan para que el sistema funcione con eficacia, transparencia e integridad en un entorno cada vez más complejo y exigente.

    Bibliografía

      Betley, J., Warncke, N., Sztyber-Betley, A., Tan, D., Bao, X., Soto, M., Srivastava, M., Labenz, N., & Evans, O. (2026). Training large language models on narrow tasks can lead to broad misalignment. Nature. https://doi.org/10.1038/s41586-025-09937-5

      Center for Corporate Governance (Esade) & IBM Consulting. (2025, noviembre). Guía de Consejeros para una IA ética. Esade Center for Corporate Governance.

      Estévez, M., & Rodríguez, B. (2025). Gobernanza, ética e Inteligencia Artificial: Retos para los Consejos de Administración. RocaJunyent; Ethosfera; ACC Europe.

      Forética. (2024, 18 de junio). Manifiesto por una Inteligencia Artificial Responsable y Sostenible. https://foretica.org/wp-content/uploads/manifiesto_IA_responsable_sostenible.pdf

      Vilariño, A. (2026, 5 de enero). IA y consejos de administración, de la ética en el papel a la gobernanza real. Revista Haz. https://hazrevista.org/buen-gobierno/2026/01/ia-consejos-administracion-etica-gobernanza/

      Villoria, M. (2025). Derechos humanos e inteligencia artificial. Revista de Occidente.

    Otras lecturas

      "Why the Tech World Thinks the American Dream Is Dying"

      Wall Street Journal, 18 de enero, 2026

      Why the Tech World Thinks the American Dream Is Dying - WSJ.pdf4.33 MB
      Download

      "Lockheed Martin CIO Says AI Is Remaking Her Role"

      Wall Street Journal, 16 de enero, 2026

      Lockheed Martin CIO Says AI Is Remaking Her Role - WSJ.pdf1.91 MB
      Download

    "Microsoft warns that China is winning AI race outside the west"

    Financial Times, 13 de enero, 2026

    Microsoft warns that China is winning AI race outside the west.pdf779.01 KB
    Download

    Manifiesto de Mapfre por una IA humanista, ética y responsable

    Manifiesto-de-Mapfre-por-una-inteligencia-artificial-humanista-etica-y-responsable.pdf1.77 MB
    Download