¿Qué sabemos los profesores sobre el Proceso Inteligencia Artificial de Hiroshima del G7?

El Proceso de Inteligencia Artificial de Hiroshima del G7 (acordado por Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido, y la Unión Europea, como bloque, representada por el presidente del Consejo Europeo y el presidente de la Comisión Europea), establecieron el código de conducta global para los desarrolladores de algoritmos de nueva generación. Tiene como objetivo conocer y respetar las barreras de seguridad para sistemas avanzados de IA a nivel global. Así, de esta manera, poco a poco, la inteligencia artificial se coloca como un punto clave de la gobernanza global y los diferentes bloques toman posiciones respecto a esta tecnología.

El Código internacional de conducta para las organizaciones que desarrollan sistemas avanzados de IA tiene por objeto promover una IA segura, protegida y fiable en todo el mundo y proporcionará orientaciones voluntarias para las acciones de las organizaciones que desarrollan los sistemas de IA más avanzados, incluidos los modelos básicos más avanzados y los sistemas de IA generativos. “Uno de los ejes troncales del Proceso de Hiroshima es la transparencia. Es la principal medida de control que piden todos los expertos, que avisan de que los algoritmos serán incontrolables si se convierten en “cajas negras” que nadie, salvo sus desarrolladores, sabe cómo funcionan. […] Esto incluye, cuando sea apropiado y técnicamente factible, la autenticación de contenidos y mecanismos de procedencia para los contenidos creados con la IA de una organización. Deben incluir un identificador del servicio o modelo que creó el contenido, pero no es necesario que incluyan información sobre el usuario, […]”. El Proceso de IA de Hiroshima”: así es el primer código de conducta global de la inteligencia artificial.

El marco político global del proceso de la IA de Hiroshima consta de cuatro pilares:

  1. análisis de los riesgos prioritarios, los retos y las oportunidades de la IA generativa,
  2. los Principios Rectores Internacionales del Proceso de Hiroshima para todos los agentes de la IA en el ecosistema de la IA,
  3. Código de conducta internacional del Proceso de Hiroshima para las organizaciones que desarrollan sistemas avanzados de IA,
  4. cooperación basada en proyectos en apoyo del desarrollo de herramientas y mejores prácticas de IA responsables. (Declaración de los dirigentes del G-7 sobre el proceso de la IA de Hiroshima)

Estos principios y el Código de Conducta voluntario complementarán, a nivel internacional, las normas jurídicamente vinculantes que los colegisladores de la UE, cuya presidenta Úrsula Von Der Leyen, quien suscribió la declaración, afirmó al inicio del encuentro que: “Los beneficios potenciales de la Inteligencia Artificial para los ciudadanos y la economía son enormes. Sin embargo, la aceleración de la capacidad de la IA también plantea nuevos desafíos. La UE, que ya es pionera en materia regulatoria con la Ley de IA, también está contribuyendo a las barreras de seguridad y la gobernanza de la IA a nivel mundial. Me complace dar la bienvenida a los Principios Rectores internacionales del G7 y al Código de Conducta voluntario, que reflejan los valores de la UE para promover una IA confiable. Hago un llamado a los desarrolladores de IA para que firmen e implementen este Código de conducta lo antes posible”.

Proceso Inteligencia Artificial de Hiroshima del G7

Los once Principios Rectores adoptados por la UE y el G7, brindan orientación a las organizaciones que desarrollan, implementan y utilizan sistemas avanzados de IA, como modelos básicos e IA generativa, para promover la seguridad y la confiabilidad de la tecnología. Incluyen compromisos para mitigar los riesgos y el uso indebido e identificar vulnerabilidades, fomentar el intercambio responsable de información, la notificación de incidentes y la inversión en ciberseguridad, así como un sistema de etiquetado para permitir a los usuarios identificar el contenido generado por IA. Recordemos, este contexto, “el papel de las escuelas como «infraestructuras críticas para construir una sociedad diversa e inclusiva» y como lugares que ofrecen oportunidades para «el aprendizaje colaborativo», «donde los niños se sienten seguros y aceptados», y que también asegurar el uso ético, seguro y responsable de la IA. (Los ministros de Educación del G7 piden «mitigar los riegos» derivados de la IA generativa).

Publicaciones recomendadas: Cómo usar en la Educación, los dispositivos digitales personales de manera disciplinada, ética, responsable, saludable y eficaz

Como educadores, esta información, si bien no es específicamente para la planificación y uso ético de la IA en la Educación, la UNESCO nos propone encontrar nuevas rutas de aprendizaje usándola como herramienta útil para mejorar nuestros procesos de enseñanza – aprendizaje. Ojalá encontremos, dentro de nuestro escaso tiempo para la investigación, espacios de diálogo y reflexión sobre el su uso ético de la las nuevas tecnologías y el desarrollo de habilidades para tomar decisiones éticas responsables. ¿Qué acciones inmediatas incorporaría usted en su quehacer docente para velar por la ética en el uso de la IA en la enseñanza? Recordemos que en la educación la última palabra no está dicha, y por eso incluyamos en nuestra tare docente hacer la IA más accesible, útil y eficiente. en la medida que la conozcamos y la pongamos a discusión en nuestros centros educativos

Artículo relacionado: Recomendaciones sobre la Ética de la Inteligencia Artificial propuesta por la UNESCO

Los once Principios Rectores acordados por la G7 y la UE, quiere ser una ayuda para encontrar una ruta de orientación a las organizaciones que desarrollan, implementan y utilizan sistemas avanzados de IA, como las escuelas, y nos puede permitir, entre otros beneficios propios y específicos:

  • promover la seguridad y la confiabilidad de la tecnología,
  • respetar los compromisos para mitigar los riesgos,
  • desterrar el uso indebido e identificar las vulnerabilidades,
  • fomentar el intercambio responsable de información,
  • comunicación y notificación de incidentes,
  • apoyar la inversión en ciberseguridad,
  • transparencia y honestidad en el sistema de etiquetado para permitir a los estudiantes identificar el contenido generado por IA.
  • proteger la privacidad, clave para garantizar la dignidad humana, la seguridad y la autodeterminación,
  • desarrollar marcos de evaluación de riesgos y de impacto en los derechos humanos basados ​​en evidencia que se utilizarán antes del desarrollo, despliegue y uso de la inteligencia artificial en la tarea escolar, respetando los derechos humanos, las libertades cívicas y la democracia,
  • asegurar aplicaciones y fuentes que hayan demostrado un uso ético de la tecnología y lleven a cabo la debida diligencia en materia de derechos humanos,
  • regular la IA para garantizar la transparencia, la trazabilidad y la precisión para proteger contra el refuerzo destructivo del sesgo en los algoritmos generativos de IA,
  • establecer la seguridad en la transferencia de datos de identificación se los usuarios,
  • cerciorarse de la inclusión y la ausencia de impacto discriminatorio,
  • tener la responsabilidad personal de asegurarse de vigilancia real del origen de las herramientas tecnológicas que usen la inteligencia artificial.
  • fortalecer todos los esfuerzos para mantener a los niños seguros en línea de conformidad con la Convención sobre los derechos del Niño y Jóvenes, relación con el entorno digital, incluidos los regímenes nacionales, la cooperación en materia de aplicación de la ley y el intercambio de información, para abordar responsablemente la lucha contra la violencia en línea, especialmente la explotación y el abuso sexual infantil.
  • Encontrar nuevos caminos un mayor acceso a una educación inclusiva, adaptada a los niños y digitalmente equitativa sobre alfabetización digital, ética digital y proliferación de noticias falsas para la protección de la salud mental de los niños.

Recordando al profesor Paulo Freire, todo “proceso educativo siempre ha estado en crecimiento y a la búsqueda de alternativas que asegura el derecho a la población a una educación con calidad, logrando así nuevas y mejores formas de generar aprendizaje significativo.” Los sistemas educativos y las escuelas (de manera particular), con la participación de los padres de familia, profesores y la escucha de los estudiantes, deberían tener en cuenta estas propuestas, para tomar, mejorar o descartar estas acciones de acuerdo con su realidad, poniendo especial atención en darle un enfoque basado en los riesgos y una gran apertura a enriquecerla en el camino. (cf La Comisión acoge con satisfacción el acuerdo de los líderes del G7 sobre los principios rectores y un código de conducta en materia de inteligencia artificial)

Los ministros de Educación del Proceso de Inteligencia Artificial de Hiroshima del G7, no solo han aceptado esta aspiración, sino que también nos invitan a trabajar para mejorar formación en competencias digitales y llamaron a «mitigar los riesgos» derivados de la aplicación en enseñanza de la inteligencia artificial (IA) generativa como ChatGPT. Los «desafíos y oportunidades» que conllevan las nuevas tecnologías en la educación fueron uno de los temas centrales discutidos durante la reunión de ministros del ramo del Grupo de los Siete celebrada a lo largo de tres días en las ciudades niponas de Toyama y Kanazawa. […] los participantes se comprometieron a, siguiendo una tendencia acelerada por la pandemia. mejorar los «entornos educativos para integrar de forma efectiva las tecnologías de la información y la comunicación», promoviendo las competencias digitales de profesores y alumnos para ayudar a estos últimos «a convertirse en usuarios responsables e informados capaces de afrontar las nuevas oportunidades y desafíos». Y hacen bien, en animarnos a ser profesores con pensamiento crítico, sin olvidar que la educación cara a cara y las interacciones maestro-alumno presenciales «siguen siendo fundamentales para el futuro de la educación». Un enfoque colaborativo, según el G7 Hiroshima Process, “pretende abordar preocupaciones sobre la desinformación, la privacidad y el uso indebido de la tecnología AI, promoviendo así el desarrollo responsable y ético de la inteligencia artificial en beneficio de la sociedad global.”

Recientemente representantes de las tecnologías emergentes, como Sony, Microsoft, Google, y OpenAI, han convocado, a solicitud de la ONU, 38 expertos de 33 países, para conformar un Consejo Consultivo que se enfocará en “analizar y promover recomendaciones para la gobernanza internacional de la inteligencia artificial (IA). Ellos trabajarán en el desarrollo de un consenso científico global sobre los riesgos y desafíos de la IA, en la exploración de las ventajas de dicha tecnología en el cumplimiento de los Objetivos de Desarrollo Sostenible y en fortalecer la cooperación internacional en la gobernanza de la IA.” Según su Secretario General, su estudio puede “impulsar un progreso extraordinario para la humanidad. Desde predecir y abordar crisis hasta implementar programas de salud pública y servicios educativos, podría ampliar y amplificar el trabajo de los gobiernos, la sociedad civil y las Naciones Unidas en todos los ámbitos. Para las economías en desarrollo ofrece la posibilidad de superar tecnologías obsoletas y llevar servicios directamente a las personas que más los necesitan”. (Fernanda González)

Como profesores, esperamos que esta publicación, con la información y experiencias que usted pueda encontrar en las redes, le animen a encontrar códigos de conducta ayuden a desarrollar «un entorno abierto y propicio» en el que se «diseñen, desarrollen, implementen y utilicen sistemas de IA seguros y confiables para maximizar los beneficios de la tecnología», aminorar los riesgos de la inteligencia artificial sin guía y cerrar las brechas digitales de nuestros estudiantes -en caso de existir- y así valernos de un gran apoyo en la Educación. La profesora Melissa LLauce, de la Universidad de Piura (Perú) afirma que “la IA no es mala ni buena, sino que su uso dependerá de la acción humana. Es la persona la que es un ser ético, en este sentido, los efectos causados por la IA dependen del buen o mal uso que le dé la persona, así como de las intenciones y los objetivos de quienes la programan.”

“La inteligencia artificial es una herramienta poderosa, pero solo será tan buena como la sabiduría de aquellos que la controlan.» (Elon Musk)



Comparte este artículo
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

También puede leer:





Se desactivó la función de seleccionar y copiar en esta página.