La gobernanza de la inteligencia artificial

Una cita recurrente es aquella atribuida a William Gibson: “el futuro ya está aquí, pero distribuido de forma desigual”. El autor de ciencia ficción y ciberpunki es conocido por popularizar el concepto “ciberespacio” y por representar escenarios posibles, vinculados al desarrollo exponencial de las tecnologías. A mí, que sueño con ser un ciberpunki, me interesa la ética de la inteligencia artificial. Y tengo pesadillas.

Si confiamos en el análisis racional y el criterio de los expertos y las máquinas, desaparece el libre albedrío, la libertad individual y la responsabilidad propia sobre las decisiones que tomamos. Prescribe la rendición de cuentas. Desaparecen las actuaciones ejemplares. Agonizan las vidas heroicas. Perdemos el porqué y, quizás, el cómo de nuestra conducta. En su prólogo a la edición de 1957 de La miseria del historicismo, Karl Popper ya advertía contra este afán de predecir por métodos racionales o científicos el devenir de la historia humana, el progreso o las ciencias sociales. No hemos aprendido nada de su lectura. No sabemos cómo será la vida robotizada, sobre todo porque es un escenario aún exclusivo de la imaginación. Pero ya encontramos agoreros y fatalistas que discuten con solucionistas tecnológicos. ¡Qué pesadez!

No sabemos nada porque, hasta ahora, las máquinas han crecido en un estado de seguridad, un mundo “cerrado” de laboratorios, industrias y prototipos. Esto ha cambiado. Skynet está preparado para salir al mundo exterior, a enfrentarse con las sociedades abiertas. Tendremos actores inteligentes no humanos en la salud pública, el transporte y la conducción, el medio ambiente, la justicia, los seguros, el mercado laboral, la enseñanza reglada y ¡el periodismo! El deber de las políticas públicas es acompañar el progreso de la automatización, los robots y la inteligencia artificial con medidas que aseguren la convivencia, promuevan la libertad individual y reduzcan la inseguridad. Tenemos que empezar a ajustar la gobernanza, las normas y los usos de la inteligencia en la vida pública, en la comunidad. Luego, será tarde.

Las buenas prácticas han de organizarse en varios niveles. El primero, siempre el primero, es la educación. La educación ha de integrar saberes en nuevos grados universitarios, programas específicos de aprendizaje, la adquisición de nociones básicas de documentación y programación. Cualquier profesión necesitará estas habilidades en su actividad cotidiana. Me preocupa aquí otro asunto. Sin diversidad en el aula, los patrones de aprendizaje se copian de aquellos que diseñan, estructuran y programan. Las mujeres representan solo el 18% de las estudiantes de las ciencias informáticas en Estados Unidos. En España, el porcentaje se sitúa en el 21% en computación y en el 25% las titulaciones técnicas. European Start Up Monitor 2016 señala que solo el 14,5% de las empresas de base tecnológica son lideradas por mujeres.  La diversidad de origen de quienes se dedican a las STEM (science, technology, engineering, and maths por sus siglas en inglés) permitirá la inclusión de otros puntos de vista, experiencias y necesidades en la ciencia de la inteligencia artificial.

En relación con los derechos y las libertades individuales, la inteligencia artificial tiene tarea pendiente. Ya hay noticias preocupantes sobre algoritmos que relacionan el color de la piel o la religión con la predisposición a cometer un delito… y alerta a los cuerpos de seguridad. Lo mismo sucede con la protección de la salud con cargo a seguros privados, la concesión de créditos bancarios, la regulación del consumo o la participación en actividades políticas. Si los derechos civiles tienen precondiciones, el camino se aventura peligroso.

En cuanto al empleo, si la inteligencia artificial reduce el número de empleos no cualificados, ¿cuáles son las políticas de empleo, pensiones y seguridad social para quienes se quedan fuera? ¿Cómo y de qué manera se adquieren las nuevas competencias que estos trabajadores van a necesitar?

En el ámbito de la regulación, me pregunto cómo se combina innovación y legislación, cómo se protegen los intereses de los ciudadanos, cómo reducimos el abuso de las patentes, cómo se combina la privacidad con la averiguación de delitos, cómo se usan los datos procedentes de la salud pública. Desconozco qué marco normativo nos conviene, pero estoy persuadido de la necesidad de sumar. Se necesita una pluralidad de voces que aporte su conocimiento al proceso legislativo y judicial. La innovación no pertenece en exclusiva a un colectivo y, menos aún, cuando sus consecuencias afectan a los bienes de naturaleza pública. La regulación corre pareja a la responsabilidad. ¿Quién es el responsable último de los fallos de seguridad?

En último término, las relaciones internacionales se ven transformadas. Las armas automatizadas, que eliminan la duda humana y la herencia del derecho humanitario, o bien la ciberseguridad abren un periodo de incertidumbre. Se compromete la cooperación internacional cuando todo es susceptible de ser grabado, filtrado o manipulado. Quizás sea la inteligencia artificial quien eleve la función internacional de la diplomacia científica.

En síntesis, como el viejo aforismo, vivimos la maldición de tiempos interesantes. Cuando Skynet conviva con nosotros, éstas y otras preguntas ameritarán un plan, una estrategia de gobernanza y una respuesta. ¿Cuántos gobiernos están ya trabajando en esta línea?

Comentarios

Dejar un comentario

Tu eMail no será publicado

Debes usar estas HTML etiquetas y atributos: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>