Elena Herrero-Beaumont, PhD. is the co-founder and director of Ethosfera, a think tank specialized in applied ethics and deliberation to foster good governance. She holds a PhD in law and is an expert in ethics and good governance, non-financial risks, and the effectiveness of governing bodies. She develops new methods to apply critical thinking and deliberation in strategic decision-making to build an ethical and critical innovation. She is an associate professor at IE University and the University of Navarra.
Reflexiones sobre derechos digitales
1. ¿Qué actuaciones se han hecho para la defensa de los derechos digitales hasta el momento? 2. ¿Existen derechos especiales en el mundo digital que no existen en el mundo no digital? 3. Ready Player One nos muestra un universo virtual en el que todas las personas son iguales y pueden construir su identidad. En la vida real, ¿realmente hay avances en este sentido? 4. ¿Qué acciones deberían emprenderse para que las personas más vulnerables accedan sin problemas a los entornos digitales? 5. Además de cerrar brechas digitales, es vital proteger la libertad de expresión y el derecho a la información. 5. ¿Cuáles son las razones por las que las mujeres están infrarepresentadas en el campo de la ciencia y la tecnología? La escasez de mujeres en informática es un fenómeno global que se ha intensificado en las últimas décadas. Aunque en los años 80 la proporción de mujeres en carreras tecnológicas era mucho mayor, actualmente se ha reducido drásticamente en muchos países. Esta desigualdad no es casualidad, sino el resultado de múltiples factores culturales, educativos y estructurales. A continuación, explico algunas de las razones principales y posibles soluciones para revertir esta tendencia. Causas de la escasez de mujeres en informática 🔹 Ejemplo: En los años 80, cuando las computadoras personales empezaron a llegar a los hogares, se comercializaron como juguetes para niños, excluyendo a las niñas del acceso temprano a la tecnología. 🔹 Ejemplo: En muchos colegios, los clubes de informática y programación están dominados por niños, lo que refuerza la percepción de que es un ámbito masculino. 🔹 Ejemplo: Numerosos estudios han demostrado que las mujeres en tecnología suelen ser interrumpidas más en reuniones, reciben menos crédito por su trabajo y tienen menos oportunidades de ascenso a puestos de liderazgo. 🔹 Ejemplo: Según un informe de Harvard Business Review, menos del 3% del capital de riesgo global va a empresas lideradas por mujeres. Además, la Generalitat de Catalunya ha puesto en marcha unas subvenciones para el emprendimiento femenino en el sector digital. Políticas Digitales impulsa el emprendimiento femenino en el ámbito tecnológico con una línea de subvenciones dentro del Plan DonaTIC. Esta iniciativa forma parte del Plan DonaTIC, que promueve el empoderamiento de las mujeres y fomenta el liderazgo femenino en un sector clave como el de las TIC en Cataluña. El Gobierno ha aprobado las bases reguladoras de una nueva línea de subvenciones para impulsar el talento y el emprendimiento femenino en el ámbito tecnológico y digital, con el objetivo de reducir la brecha de género. Estas ayudas están destinadas a promover iniciativas que fomenten el emprendimiento digital femenino, proyectos de empresas de base tecnológica lideradas por mujeres y programas de financiación para pymes que desarrollen iniciativas de intraemprendimiento femenino en el ámbito tecnológico o digital. Esta línea de ayudas se enmarca dentro del Plan DonaTIC y del Plan de Recuperación, Transformación y Resiliencia, financiado por la Unión Europea a través del programa Next Generation EU. Podrán beneficiarse de estas subvenciones empresas, personas autónomas, consorcios, fundaciones, universidades catalanas, centros de investigación, escuelas de negocios, así como asociaciones y entidades privadas sin ánimo de lucro. El importe máximo de las ayudas será de 150.000 € para los proyectos de las líneas 1, 2 y 3, y de 25.000 € para los proyectos de la línea 4. Estas ayudas se otorgarán hasta agotar el presupuesto total de 9 millones de euros. Cada beneficiario podrá solicitar hasta un 80% del presupuesto total de la actividad. La cuantía de la subvención dependerá del coste del proyecto, en coherencia con la puntuación obtenida en la memoria presentada y en función de los criterios de valoración y disponibilidad presupuestaria. Para optar a estas ayudas, los solicitantes deberán presentar una memoria ajustada a los criterios de valoración establecidos en las bases reguladoras. Asimismo, deberán cumplir una serie de requisitos generales y específicos detallados en dichas bases, que varían en función de cada línea de subvención. Subvenciones con fondos RETECH A través de los fondos europeos de recuperación, la Secretaría de Políticas Digitales del Departamento de Empresa y Trabajo de la Generalitat de Cataluña ha recibido 29,3 millones de euros para financiar tres proyectos RETECH. Este programa tiene como objetivo articular iniciativas autonómicas orientadas a la transformación y especialización digital en el marco del Plan de Recuperación, Transformación y Resiliencia. Estas subvenciones se enmarcan dentro de la Inversión 1 ("Emprendimiento") del Componente 13 ("Impulso a la Pyme") del Plan y buscan abordar específicamente la igualdad de género en la creación de empresas emergentes. Actualmente, solo el 20,8% de las startups catalanas han sido fundadas por mujeres, según el análisis del ecosistema de empresas emergentes en Cataluña en 2023, elaborado por ACCIÓ, la agencia para la competitividad empresarial del Departamento de Empresa y Trabajo. Los fondos RETECH del Componente 13, implementados en Cataluña a través del proyecto Tech FabLab, refuerzan las estrategias del Plan DonaTIC, especialmente las medidas orientadas a fortalecer el ecosistema emprendedor en el ámbito digital y el emprendimiento femenino en tecnología. Estas subvenciones buscan dar mayor visibilidad al talento femenino y fomentar el liderazgo y el emprendimiento digital de las mujeres, con el objetivo de reducir la brecha de género en este sector. 6. En España, ¿qué presencia tienen las mujeres en el sector tecnológico? Y ¿qué retos nos plantea esta situación? En España, la representación de las mujeres en los programas de grado en informática sigue siendo notablemente baja. En el curso académico 2022-2023, las mujeres constituían menos del 13% de los estudiantes matriculados en carreras de informática. Esta infrarrepresentación forma parte de una tendencia más amplia en los campos STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) dentro del país. En 2021, las mujeres representaban el 27,7% de todos los titulados en educación superior en disciplinas STEM en España, una cifra inferior a la media de la Unión Europea, que es del 32,8%. La disparidad en informática es especialmente pronunciada. En el año 2000, aproximadamente 16.900 mujeres estaban matriculadas en programas de informática, lo que representaba el 21% del total. Para 2020, esta cifra había descendido a menos de 5.000 estudiantes femeninas. Estas estadísticas ponen de manifiesto los desafíos persistentes para lograr la paridad de género en la educación en informática en España. 7. ¿Qué pasos creéis que habría que dar para acabar con la brecha cultural de la que habla Code? Por ejemplo, en las jugueterías, seguimos viendo el “pasillo rosa” ... Contamos con más de una década de datos que demuestran que los bootcamps son un modelo eficiente y de alto impacto para reforzar la formación de talento tecnológico. Sin embargo, la mayoría de estos programas reproducen la misma brecha de género que ya existe en el sector tecnológico. Por ello, es fundamental apoyar proyectos como CodeOp, que destinan el 100% de sus recursos a fomentar la participación de más mujeres en tecnología, mostrándoles que esta es una carrera viable para ellas. Al mismo tiempo, después de seis años de escuchar a miles de mujeres interesadas en ingresar al sector tecnológico, sabemos que la principal barrera para asistir a los bootcamps es financiera. Esto significa que se necesita un mayor apoyo económico por parte de gobiernos, ONG y empresas para hacer su parte en la reducción de esta brecha.
14 Feb
V
Reflexiones sobre ética y tecnología
¿Pueden relacionarse las leyes con la ética en general y en el uso del AI?   La cuestión de la relación entre leyes y ética es bastante antigua. La ética puede inspirar la regulación, pero es independiente de la regulación. Por lo general, podemos decir que la ética es la disciplina que estudia los juicios morales acerca de cuestiones de enorme trascendencia para el ser humano, como nuestra autonomía, nuestro sentido de agencia, nuestro bienestar, el bien común, la justicia, lo que hace que una vida merezca ser vivida, etc. Cuando hablamos de ética aplicada a la decisión, en este caso empresarial y tecnológica, existen una variedad de sistemas éticos desarrollados por distintos pensadores que intentan mostrarnos qué acciones son mejores y qué acciones son peores. Los sistemas más conocidos y aplicados son la ética de la virtud desarrollada fundamentalmente por Aristóteles,  la deontología de Immanuel Kant y el utilitarismo de John Stuart Mill y Jeremy Bentham.  En Ethosfera nos inclinamos especialmente por la ética de la virtud, que parte de la base de que todos tenemos unas disposiciones que hemos de cultivar de manera sistemática, buscando el término medio entre excesos y logrando con la práctica del discernimiento una prudencia en la toma de decisiones que nos encamina hacia el verdadero florecimiento humano, lo que Aristóteles llamaba Eudaimonia.  Todos estos sistemas tienen una vocación de universalidad, y tratan de trascender el interés personal o individual para favorecer un bien común. La IA nos está obligando a revisitar estos sistemas éticos y a formularnos de nuevo las dos grandes preguntas que ya planteó Leon Tolstoy a principios de siglo XX: ¿qué debemos hacer? ¿cómo debemos vivir? De una manera más concreta, la conversación entre tecnología y filosofía debe darse antes de que el regulador establezca una ley concreta. En Ethosfera hablamos de una innovación crítica como aquella innovación que ha pasado por un proceso crítico donde diversos equipos y sobre todo los principales órganos de decisión, como son el consejo de administración y el comité de dirección, disciernen, deliberan, escuchan activamente, evalúan de manera prudencial los riesgos para emitir un juicio que sostiene la decisión última sobre el diseño y la implantación de una tecnología concreta.  ¿Cuanto la ética tiene a que ver con la cultura y e la buena gobernanza ? Depende mucho de la cultura y la gobernanza de cada organización. Por lo general, vemos que en el mundo empresarial, la ética está más vinculada al cumplimiento. En el ámbito del llamado “compliance” está generalmente aceptado que se vele no sólo por el check-list regulatorio, es decir, el cumplimiento normativo en sentido estricto, sino por la ética en clave de cultura, de valores, de ejemplaridad, etc.  En este sentido, el tono que marca el liderazgo de la organización es muy relevante, ese "top down", pero también lo es que exista un "bottom up", una base de empleados con verdadero sentido de agencia. Todo lo que se ha trabajado en los últimos años de “whistleblowing” tiene como misión posibilitar que la base de empleados pueda verdaderamente denunciar aquellos comportamientos o prácticas que no están alineados con los valores de la empresa. Pero para ello es necesario un mandato claro del consejo de administración y de los directivos de cumplimiento, que ha de traducirse en mucha formación y concienciación sobre estos temas. Solo así puede lograrse una cultura que esté realmente alineada con la ética y los valores que tratan de impulsarse desde arriba.  En el ámbito de la tecnología, lo que debemos lograr es que la reflexión ética se realice en el proceso de toma de decisiones, que los equipos de innovación y los ingenieros puedan tener espacios de diálogo y reflexión con la gente de "policy" y regulación y con una variedad de stakeholders sobre los riesgos éticos inherentes a determinadas tecnologías. Y cuando esto no es posible, que esos espacios de reflexión se generen en el consejo de administración y en el comité de dirección de las empresas. Qué impacto va a tener el desarrollo de esta tecnología en el bienestar de los colectivos afectados, en la democracia, etc.  Desgraciadamente esta reflexión es aún muy embrionaria y se está manteniendo en espacios donde no puede aplicarse realmente.  La AI utiliza informaciones de todos los tipos , ¿como aplica la ética a la distinción entre el verdadero y el falso ?  Prefiero hablar de veracidad que de verdad en la esfera pública. Este tema de la veracidad siempre ha generado gran controverisa. Hablamos de veracidad como una representación precisa de la realidad, donde solo los "hechos objetivos” pueden considerarse veraces.  Como decía el editor de The Guardian, los hechos son sagrados, las opiniones libres.  Al mismo tiempo, los políticos desde que son políticos han utilizado la narrativa, el famoso relato como arma dentro de un enfrentamiento ideológico donde lo que se busca es vencer. La mentira siempre fue el arma más efectiva para alcanzar el poder.  En la actual esfera pública digital conviven la información que difunden los medios de comunicación, a veces de calidad, otras, manipulada, con la que generan millones de internautas, así como grupos de interés públicos y privados a través de unas redes sociales que intermedian unos nuevos actores, las plataformas tecnológicas.  En esta esfera pública digital se ha registrado una clara decadencia de un periodismo profesionalizado tradicionalmente desempeñado por los medios de comunicación convencionales. Este fenómeno ha venido acompañado de fenómenos como la desinformación en redes sociales y un periodismo opinativo o de identidad que ha contribuido a una mayor polarización política.  En este contexto, comenzaron a emerger nuevos actores y fenómenos para tratar de hacer frente a la desinformación y la mentira, los llamados fact-checkers o el Oversight Board de Facebook para dirimir sobre la responsabilidad de la plataforma en la gestión de los contenidos son algunos ejemplos. Y, sobre todo, todo el paquete de información europeo (la ley de servicios digitales, la ley de mercados digitales, el EMFA y el IA act). Pero desde mi punto de vista, sigue siendo el periodismo profesionalizado que han venido desarrollando algunos medios de comunicación de prestigio el que puede realizar de manera más efectiva el propósito de configurar una información veraz sobre la que construir un auténtico pluralismo político. A priori, desde la teoría y práctica del buen periodismo, definimos veracidad periodística como un “proceso de ordenación que se desarrolla entre la noticia inicial y la interacción entre el público, los protagonistas de la noticia y los periodistas a lo largo del tiempo”. Un proceso caracterizado además por una diligencia que han de seguir los profesionales para verificar el relato periodístico  Soy gran admiradora de Hannah Arendt, que ensalzó en los años 70 del siglo pasado el papel de la prensa como principal aliado de la veracidad frente a las mentiras del poder político: “Mientras la prensa sea libre e incorruptible, tiene una función enormemente importante que cumplir y puede llamarse con razón el cuarto poder.”  Lamentablemente este periodismo está profundamente herido y los medios de comunicación atraviesan una gran crisis de credibilidad y de independencia. A pesar de ello, algunas marcas periodísticas no sólo sobreviven, sino que rentabilizan un periodismo caracterizado por su compromiso con la veracidad. Ello no es impedimento para que desarrollen en paralelo una clara línea editorial con sesgo ideológico, pero la filosofía de la estricta separación entre opinión e información sigue perviviendo (aunque es cierto que con una menor intensidad comparado con el último cuarto del siglo XX) en las redacciones de estos diarios (Klein, 2020). En cualquier caso, la apuesta por la veracidad está siendo una estrategia exitosa para estos iconos en el entorno digital, hasta el punto de estar monopolizando el mercado del periodismo en inglés. Para que los lectores, los anunciantes y el público general puedan diferenciar a estas grandes marcas periodísticas de otras cabeceras, existen un conjunto de iniciativas internacionales que están impulsando la transparencia de los medios de comunicación tradicionales a través de diferentes indicadores de calidad y credibilidad periodística. Muchos de estos indicadores están asociados a la veracidad que desarrollan los medios de comunicación Tradicionales. Esta es la labor que estamos llevando a cabo en el Observatorio de medios impulsado por Ethosfera y HAZ.  Con la victoria de Donald Trump y el reposicionamiento político de los grandes líderes tecnológicos, sobre todo Mark Zuckerberg y Elon Musk,  algunas de estas medidas se están desmantelando. Y el ataque a lo que estos líderes llaman “legacy media” o  “fake news media” es constante, erosionando aún más su credibilidad. Con la erosión de la prensa y de otras instituciones, entramos en una crisis de la democracia liberal. Resulta interesante que uno de los primeros trabajos en el mundo automatizados por la IA no haya sido el de los taxistas o los trabajadores textiles, sino el de los editores de noticias. Harari en Nexus explica que la diferencia entre democracias y dictaduras radica en cómo gestionan la información. Las dictaduras están más preocupadas por controlar los datos que por evaluar su veracidad; en cambio, las democracias son redes de información transparentes en las que los ciudadanos pueden evaluar y, si es necesario, corregir datos erróneos. Los sistemas que se autocorrigen —porque fomentan la conversación y la reciprocidad— son preferibles a aquellos que solo ofrecen sumisión ciega y desprovista de derechos. Las sociedades democráticas aún tienen los mecanismos para evitar los excesos más peligrosos de la IA, y no se debe dejar que sean las empresas tecnológicas y sus dueños multimillonarios quienes se autorregulen. Si entendemos la ética como pensar críticamente y de manera colectiva a través de una serie de sistemas sobre qué decisiones son mejores y qué decisiones son peores para el bienestar del ser humano, para nuestra autonomía, para imaginar un futuro mejor, la ética impregna la labor de instituciones que en su mayoría operan bajo mecanismos de autocorrección ( asambleas democráticas, universidades, centros de investigación y medios de comunicación). Debemos trabajar para que estas instituciones operen correctamente y resulten confiables. Necesitamos con urgencia introducir controles y equilibrios significativos, o mecanismos efectivos de autocorrección, si queremos que la IA sea más una bendición que una maldición. Otras reflexiones En el verano de 2022, un ingeniero de software llamado Blake Lemoine fue despedido de Google después de conceder una entrevista al Washington Post en la que afirmó que LaMDA, el chatbot en el que trabajaba, había alcanzado la consciencia. Unos meses después, en marzo de 2023, una carta abierta del Future of Life Institute, firmada por cientos de líderes tecnológicos, incluidos Steve Wozniak y Elon Musk, instó a los laboratorios de IA a pausar su investigación. Según la carta, la inteligencia artificial representaba "riesgos profundos para la sociedad y la humanidad". Al mes siguiente, Geoffrey Hinton, el "padrino de la IA", renunció a su puesto en Google y declaró a al New York Times que lamentaba el trabajo de toda su vida. "Es difícil ver cómo se puede evitar que los actores malintencionados la usen para hacer el mal", advirtió. A medida que la revolución de la inteligencia artificial se acelera, estamos siendo bombardeados tanto por visiones utópicas como por profecías apocalípticas. Las amenazas existenciales de la IA incluyen la polarización catastrófica del discurso cuando los algoritmos de las redes sociales, diseñados para monopolizar nuestra atención, nos alimentan con material extremo y lleno de odio. También la delegación del juicio humano —en decisiones legales, financieras o militares— a una IA cuya complejidad se vuelve impenetrable para nuestra comprensión. Una de las conclusiones más inquietantes de Harari en Nexus es que no cree que las grandes empresas de IA, como Google y Microsoft, operen con mecanismos de autocorrección significativos. Están más impulsadas por el lucro que por los principios, lo que eleva significativamente los riesgos para la humanidad. Tanto Google DeepMind como OpenAI han tenido dificultades para traducir principios éticos en estructuras de gobernanza efectivas. A pesar de su nombre, OpenAI opera de manera cerrada.
13 Feb
V
Activity