Entrevista de Sam Altman
Recomendamos esta entrevista entre Tucker Carlson y Sam Altman, el CEO de OpenAI, que ilustra la falta de entrenamiento moral en las respuestas de Altman ante cuestiones éticas.
Síntesis de las lecturas
1. Una disciplina en construcción: los límites de la ética digital
La ética digital es una disciplina relativamente nueva. La última década ha estado marcada por el uso indebido de datos, la piratería informática y las malas prácticas corporativas. Expertos en el campo de la ética en la tecnología han señalado que los esfuerzos iniciales por establecer la ética digital han fracasado. Las directrices actuales, como las Directrices éticas para una inteligencia artificial fiable de la Comisión Europea, han sido criticadas por ser "tibias, miopes y deliberadamente vagas", en gran parte debido a la falta de especialistas en ética profesional y al exceso de representantes de la industria (Véliz, 2019).
2. Autorregulación corporativa: entre la buena voluntad y el interés privado
Algunos prefieren no esperar a las instituciones reguladoras y piensan que deberían ser las propias empresas las que se autorregulen. Sin embargo, los esfuerzos de las empresas por establecer principios internos, aunque deseables, están intrínsecamente impulsados por intereses privados y pueden ser demasiado vagos o modificarse de forma subrepticia.
3. La inteligencia artificial como fuerza transformadora de la sociedad según Cordero Fuertes
Los sistemas de IA están generando actualmente profundas perturbaciones sociales (Cordero, 2022). La tecnología actual afecta el ocio, la economía, el trabajo, las sociedades, la administración, los servicios públicos y la política. Además, influye la manera en que tomamos decisiones, formamos nuestros juicios y preferencias y ejercemos nuestros derechos. Dado que la IA se está integrando en múltiples ámbitos de la vida cotidiana, es importante analizar las áreas en las que las decisiones de ingeniería se cruzan con la ética.
Los sesgos en los datos: cuando el problema no es técnico, sino humano
Una de estas áreas es la de los datos utilizados para entrenar los large language models. Cuando los sistemas de IA se entrenan con datos históricos, corren el riesgo de reproducir y amplificar los sesgos humanos existentes. Un ejemplo de ello es cuando Amazon utilizó la IA en su proceso de contratación y esta aprendió a discriminar sistemáticamente a las mujeres porque los datos de referencia con los que se entrenó mostraban que los hombres tenían más probabilidades de ser contratados. Casos como estos no son ejemplos de fallos algorítmicos o técnicos, sino que el problema radica en los seres humanos y en las decisiones que tomaron durante el desarrollo de la IA.
La dimensión política de las decisiones técnicas
Las decisiones que rigen el funcionamiento de un sistema de IA están intrínsecamente cargadas de valores. El modelo de datos, las opciones de muestreo y la métrica de rendimiento (criterios de optimización) que el sistema utiliza para evaluar sus propias decisiones no son elecciones puramente técnicas o científicas, sino decisiones "políticas". Estos elementos influyen en el resultado y, aunque parecen técnicos, son ajenos a los propios algoritmos (Cordero, 2022).
La necesidad de transparencia moral en los sistemas de IA
Uno de los retos para los desarrolladores de IA es dotar a los sistemas de un marco moral o una jerarquía de valores que puedan utilizar como referencia a la hora de responder a preguntas con implicaciones éticas. En el caso de OpenAI, Sam Altman no ha podido explicar de forma transparente qué tipo de marco moral utiliza el algoritmo ni quién es el responsable de desarrollarlo. Es esencial que esta información sea transparente para garantizar la confianza de los usuarios de los modelos. OpenAI tiene una "Model Spec" que contiene un conjunto de reglas para sus herramientas de IA, sin embargo, en el mismo documento afirman que no está actualizado y que el documento disponible actualmente no refleja el estado de los modelos actuales.
4. Carisa Véliz: Inspiración en la ética médica: hacia un marco de referencia sólido
Dado que la ética digital es un campo nuevo y en constante evolución, Carissa Véliz sugiere que quienes desarrollan directrices éticas para el uso de la tecnología tomen como referencia la ética médica, ya que esta contiene un marco bien establecido y de confianza.
La creación de códigos de conducta y la profesionalización del sector tecnológico
La primera recomendación es que la ética digital desarrolle códigos análogos al Código de Núremberg o la Declaración de Helsinki. Estos códigos son necesarios para establecer puntos de referencia para las buenas prácticas. Para que un código de ética digital tenga autoridad moral en todo el sector, debe ser el resultado de la deliberación de un organismo legítimo, independiente y neutral centrado en el interés público, y no únicamente en los intereses de las empresas privadas. La implementación exitosa de dichos códigos apunta a la necesidad de profesionalizar los trabajos tecnológicos, como los de los informáticos e ingenieros, exigiéndoles altos estándares éticos cuyo incumplimiento podría dar lugar a la suspensión o expulsión.
Comités de ética en las empresas tecnológicas
A continuación, recomienda que todas las empresas tecnológicas creen un comité de ética, similar a los que suelen existir en los hospitales. Estos comités deben desempeñar tres funciones clave: la formación del personal y la comunidad; la elaboración y revisión de políticas; y el asesoramiento ético caso por caso. Es fundamental que estos comités tengan la facultad de bloquear proyectos claramente contrarios a la ética y que sean relativamente independientes de la empresa que supervisan.
La autonomía del usuario como principio rector
Por último, los proyectos digitales éticos deben respetar la autonomía individual, es decir, la capacidad de actuar de acuerdo con los propios motivos y elegir los propios valores. Este principio representa un alejamiento del paternalismo, al reconocer que las decisiones tecnológicas están cargadas de valores, al igual que las decisiones médicas. La tecnología debe ayudar a los usuarios a alcanzar sus objetivos, en lugar de emplear tecnologías persuasivas que pongan en peligro su atención y su voluntad.
5. Ética y empresa: la mirada de Joan Fontrodona
El profesor Fontrodona analiza la incorporación de estándares éticos en el ámbito empresarial. Observa que la adopción de la IA en sectores económicos y laborales avanza más lentamente que en áreas como el entretenimiento o la eficiencia, debido a las preocupaciones por la privacidad y el riesgo reputacional. Ante estas dificultades, las empresas recurren cada vez más a certificaciones y estándares elaborados por expertos para garantizar la conformidad ética de sus sistemas. La reciente Ley de IA de la Unión Europea (2024) representa un paso crucial hacia la regulación responsable, pero Fontrodona advierte que la regulación no basta por sí sola: debe complementarse con el desarrollo de competencias morales entre diseñadores, implementadores y usuarios de la IA. Solo así podrá consolidarse una cultura ética que acompañe el progreso tecnológico.
Referencias:
"Una ética para la inteligencia artificial: libertad, feminismo y ecologismo", Lucía Ortiz de Zárate
"Enseñar a aprender a las máquinas: mito, tecnología y política", Juan Antonio Cordero Fuertes https://www.epizeuxis.net/wp-content/uploads/2022/07/cordero-claves280-1.pdf
"Hacia una IA ética en la empresa", Joan Fontrodona https://www.iese.edu/es/insight/articulos/inteligencia-artificial-etica-empresa/
"Three things digital ethics can learn from medical ethics", Carissa Véliz https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3438518