¿Pueden relacionarse las leyes con la ética en general y en el uso del AI?  
La cuestión de la relación entre leyes y ética es bastante antigua. La ética puede inspirar la regulación, pero es independiente de la regulación. Por lo general, podemos decir que la ética es la disciplina que estudia los juicios morales acerca de cuestiones de enorme trascendencia para el ser humano, como nuestra autonomía, nuestro sentido de agencia, nuestro bienestar, el bien común, la justicia, lo que hace que una vida merezca ser vivida, etc.
Cuando hablamos de ética aplicada a la decisión, en este caso empresarial y tecnológica, existen una variedad de sistemas éticos desarrollados por distintos pensadores que intentan mostrarnos qué acciones son mejores y qué acciones son peores. Los sistemas más conocidos y aplicados son la ética de la virtud desarrollada fundamentalmente por Aristóteles,  la deontología de Immanuel Kant y el utilitarismo de John Stuart Mill y Jeremy Bentham. 
En Ethosfera nos inclinamos especialmente por la ética de la virtud, que parte de la base de que todos tenemos unas disposiciones que hemos de cultivar de manera sistemática, buscando el término medio entre excesos y logrando con la práctica del discernimiento una prudencia en la toma de decisiones que nos encamina hacia el verdadero florecimiento humano, lo que Aristóteles llamaba Eudaimonia. 
Todos estos sistemas tienen una vocación de universalidad, y tratan de trascender el interés personal o individual para favorecer un bien común. La IA nos está obligando a revisitar estos sistemas éticos y a formularnos de nuevo las dos grandes preguntas que ya planteó Leon Tolstoy a principios de siglo XX: ¿qué debemos hacer? ¿cómo debemos vivir?
De una manera más concreta, la conversación entre tecnología y filosofía debe darse antes de que el regulador establezca una ley concreta. En Ethosfera hablamos de una innovación crítica como aquella innovación que ha pasado por un proceso crítico donde diversos equipos y sobre todo los principales órganos de decisión, como son el consejo de administración y el comité de dirección, disciernen, deliberan, escuchan activamente, evalúan de manera prudencial los riesgos para emitir un juicio que sostiene la decisión última sobre el diseño y la implantación de una tecnología concreta. 
¿Cuanto la ética tiene a que ver con la cultura y e la buena gobernanza ?
Depende mucho de la cultura y la gobernanza de cada organización. Por lo general, vemos que en el mundo empresarial, la ética está más vinculada al cumplimiento. En el ámbito del llamado “compliance” está generalmente aceptado que se vele no sólo por el check-list regulatorio, es decir, el cumplimiento normativo en sentido estricto, sino por la ética en clave de cultura, de valores, de ejemplaridad, etc. 
En este sentido, el tono que marca el liderazgo de la organización es muy relevante, ese "top down", pero también lo es que exista un "bottom up", una base de empleados con verdadero sentido de agencia. Todo lo que se ha trabajado en los últimos años de “whistleblowing” tiene como misión posibilitar que la base de empleados pueda verdaderamente denunciar aquellos comportamientos o prácticas que no están alineados con los valores de la empresa. Pero para ello es necesario un mandato claro del consejo de administración y de los directivos de cumplimiento, que ha de traducirse en mucha formación y concienciación sobre estos temas. Solo así puede lograrse una cultura que esté realmente alineada con la ética y los valores que tratan de impulsarse desde arriba. 
En el ámbito de la tecnología, lo que debemos lograr es que la reflexión ética se realice en el proceso de toma de decisiones, que los equipos de innovación y los ingenieros puedan tener espacios de diálogo y reflexión con la gente de "policy" y regulación y con una variedad de stakeholders sobre los riesgos éticos inherentes a determinadas tecnologías. Y cuando esto no es posible, que esos espacios de reflexión se generen en el consejo de administración y en el comité de dirección de las empresas. Qué impacto va a tener el desarrollo de esta tecnología en el bienestar de los colectivos afectados, en la democracia, etc.  Desgraciadamente esta reflexión es aún muy embrionaria y se está manteniendo en espacios donde no puede aplicarse realmente. 
La AI utiliza informaciones de todos los tipos , ¿como aplica la ética a la distinción entre el verdadero y el falso ? 
Prefiero hablar de veracidad que de verdad en la esfera pública. Este tema de la veracidad siempre ha generado gran controverisa. Hablamos de veracidad como una representación precisa de la realidad, donde solo los "hechos objetivos” pueden considerarse veraces.  Como decía el editor de The Guardian, los hechos son sagrados, las opiniones libres. 
Al mismo tiempo, los políticos desde que son políticos han utilizado la narrativa, el famoso relato como arma dentro de un enfrentamiento ideológico donde lo que se busca es vencer. La mentira siempre fue el arma más efectiva para alcanzar el poder. 
En la actual esfera pública digital conviven la información que difunden los medios de comunicación, a veces de calidad, otras, manipulada, con la que generan millones de internautas, así como grupos de interés públicos y privados a través de unas redes sociales que intermedian unos nuevos actores, las plataformas tecnológicas. 
En esta esfera pública digital se ha registrado una clara decadencia de un periodismo profesionalizado tradicionalmente desempeñado por los medios de comunicación convencionales. Este fenómeno ha venido acompañado de fenómenos como la desinformación en redes sociales y un periodismo opinativo o de identidad que ha contribuido a una mayor polarización política. 
En este contexto, comenzaron a emerger nuevos actores y fenómenos para tratar de hacer frente a la desinformación y la mentira, los llamados fact-checkers o el Oversight Board de Facebook para dirimir sobre la responsabilidad de la plataforma en la gestión de los contenidos son algunos ejemplos. Y, sobre todo, todo el paquete de información europeo (la ley de servicios digitales, la ley de mercados digitales, el EMFA y el IA act).

Pero desde mi punto de vista, sigue siendo el periodismo profesionalizado que han venido desarrollando algunos medios de comunicación de prestigio el que puede realizar de manera más efectiva el propósito de configurar una información veraz sobre la que construir un auténtico pluralismo político. A priori, desde la teoría y práctica del buen periodismo, definimos veracidad periodística como un “proceso de ordenación que se desarrolla entre la noticia inicial y la interacción entre el público, los protagonistas de la noticia y los periodistas a lo largo del tiempo”. Un proceso caracterizado además por una diligencia que han de seguir los profesionales para verificar el relato periodístico 
Soy gran admiradora de Hannah Arendt, que ensalzó en los años 70 del siglo pasado el papel de la prensa como principal aliado de la veracidad frente a las mentiras del poder político: “Mientras la prensa sea libre e incorruptible, tiene una función enormemente importante que cumplir y puede llamarse con razón el cuarto poder.” 
Lamentablemente este periodismo está profundamente herido y los medios de comunicación atraviesan una gran crisis de credibilidad y de independencia. A pesar de ello, algunas marcas periodísticas no sólo sobreviven, sino que rentabilizan un periodismo caracterizado por su compromiso con la veracidad. Ello no es impedimento para que desarrollen en paralelo una clara línea editorial con sesgo ideológico, pero la filosofía de la estricta separación entre opinión e información sigue perviviendo (aunque es cierto que con una menor intensidad comparado con el último cuarto del siglo XX) en las redacciones de estos diarios (Klein, 2020). En cualquier caso, la apuesta por la veracidad está siendo una estrategia exitosa para estos iconos en el entorno digital, hasta el punto de estar monopolizando el mercado del periodismo en inglés. Para que los lectores, los anunciantes y el público general puedan diferenciar a estas grandes marcas periodísticas de otras cabeceras, existen un conjunto de iniciativas internacionales que están impulsando la transparencia de los medios de comunicación tradicionales a través de diferentes indicadores de calidad y credibilidad periodística. Muchos de estos indicadores están asociados a la veracidad que desarrollan los medios de comunicación Tradicionales. Esta es la labor que estamos llevando a cabo en el Observatorio de medios impulsado por Ethosfera y HAZ. 
Con la victoria de Donald Trump y el reposicionamiento político de los grandes líderes tecnológicos, sobre todo Mark Zuckerberg y Elon Musk,  algunas de estas medidas se están desmantelando. Y el ataque a lo que estos líderes llaman “legacy media” o  “fake news media” es constante, erosionando aún más su credibilidad.
Con la erosión de la prensa y de otras instituciones, entramos en una crisis de la democracia liberal. Resulta interesante que uno de los primeros trabajos en el mundo automatizados por la IA no haya sido el de los taxistas o los trabajadores textiles, sino el de los editores de noticias.
Harari en Nexus explica que la diferencia entre democracias y dictaduras radica en cómo gestionan la información. Las dictaduras están más preocupadas por controlar los datos que por evaluar su veracidad; en cambio, las democracias son redes de información transparentes en las que los ciudadanos pueden evaluar y, si es necesario, corregir datos erróneos. Los sistemas que se autocorrigen —porque fomentan la conversación y la reciprocidad— son preferibles a aquellos que solo ofrecen sumisión ciega y desprovista de derechos. Las sociedades democráticas aún tienen los mecanismos para evitar los excesos más peligrosos de la IA, y no se debe dejar que sean las empresas tecnológicas y sus dueños multimillonarios quienes se autorregulen.
Si entendemos la ética como pensar críticamente y de manera colectiva a través de una serie de sistemas sobre qué decisiones son mejores y qué decisiones son peores para el bienestar del ser humano, para nuestra autonomía, para imaginar un futuro mejor, la ética impregna la labor de instituciones que en su mayoría operan bajo mecanismos de autocorrección ( asambleas democráticas, universidades, centros de investigación y medios de comunicación). Debemos trabajar para que estas instituciones operen correctamente y resulten confiables. Necesitamos con urgencia introducir controles y equilibrios significativos, o mecanismos efectivos de autocorrección, si queremos que la IA sea más una bendición que una maldición.
Otras reflexiones
En el verano de 2022, un ingeniero de software llamado Blake Lemoine fue despedido de Google después de conceder una entrevista al Washington Post en la que afirmó que LaMDA, el chatbot en el que trabajaba, había alcanzado la consciencia. Unos meses después, en marzo de 2023, una carta abierta del Future of Life Institute, firmada por cientos de líderes tecnológicos, incluidos Steve Wozniak y Elon Musk, instó a los laboratorios de IA a pausar su investigación. Según la carta, la inteligencia artificial representaba "riesgos profundos para la sociedad y la humanidad". Al mes siguiente, Geoffrey Hinton, el "padrino de la IA", renunció a su puesto en Google y declaró a al New York Times que lamentaba el trabajo de toda su vida. "Es difícil ver cómo se puede evitar que los actores malintencionados la usen para hacer el mal", advirtió.
A medida que la revolución de la inteligencia artificial se acelera, estamos siendo bombardeados tanto por visiones utópicas como por profecías apocalípticas. Las amenazas existenciales de la IA incluyen la polarización catastrófica del discurso cuando los algoritmos de las redes sociales, diseñados para monopolizar nuestra atención, nos alimentan con material extremo y lleno de odio. También la delegación del juicio humano —en decisiones legales, financieras o militares— a una IA cuya complejidad se vuelve impenetrable para nuestra comprensión.
Una de las conclusiones más inquietantes de Harari en Nexus es que no cree que las grandes empresas de IA, como Google y Microsoft, operen con mecanismos de autocorrección significativos. Están más impulsadas por el lucro que por los principios, lo que eleva significativamente los riesgos para la humanidad.
Tanto Google DeepMind como OpenAI han tenido dificultades para traducir principios éticos en estructuras de gobernanza efectivas. A pesar de su nombre, OpenAI opera de manera cerrada.

Activity