SUSCRÍBETE A MI LISTA DE CORREO para recibir relatos y artículos extra. Apúntate haciendo click aquí.

19.3.18

¿Le darías un arma a un robot?

En los años 60 del siglo pasado, el profesor Joseph Weizenbaum creó a ELIZA, el primer programa de conversación que intentaba imitar el lenguaje natural de los seres humanos. Iniciaba un camino que llevaría hasta asistentes digitales tan avanzados como Siri, con los que podemos tener conversaciones cada día más reales.

Al científico le sorprendió la cantidad de personas que atribuían emociones a ELIZA, y el entusiasmo que mostraban sobre las posibilidades que un software así podía tener en campos que requieren abstracción, conciencia. Él sabía lo que había dentro del programa y que no era capaz de pensar, sino tan solo de procesar datos. Con esta certeza, se convenció de que no era buena idea poner computadoras al cargo de trabajos que precisen discernimiento o empatía, tales como el de juez, policía o médico.

Weizenbaum se considera uno de los padres de la inteligencia artificial, pero también fue uno de sus primeros críticos. Le preocupaba el uso militar de las máquinas, aventurando el advenimiento de los robots de combate. Cincuenta años atrás hacía falta una mente preclara para vislumbrar un futuro dotado de máquinas asesinas, y aun hoy muchos los consideran ciencia-ficción; pero son muy reales, tanto que ya existe un movimiento contra ellos.

Es muy legítimo cuestionar la ética de este tipo de tecnología, así como si es prudente permitir que las computadoras se ocupen de juzgarnos, redactar nuestras leyes u operarnos a corazón abierto si es necesario. Para ello, siguiendo a Weizenbaum, es indispensable una compasión y sabiduría que solo un aprendizaje humano puede aportar.

Los tecnoescépticos dan por cierto que las máquinas no tienen empatía y no pueden distinguir el bien del mal. Lograrán ejecutar tareas complejas usando las matemáticas, pero nunca resolver conflictos donde entren en juego las emociones.

Esta posición necesita que las máquinas no solo carezcan de empatía - lo cual es un hecho - sino que sean incapaces de desarrollarla en el futuro. Esto no puede afirmarse con la información de que disponemos. Pero para el problema que nos ocupa, asumamos como seguro este escenario. Imaginemos que los robots no pueden dotarse de emociones bajo ningún concepto. ¿Les impide esto ocuparse de asuntos sensibles?

Conciencia contra algoritmos


Existe algo que las máquinas, precisamente porque carecen de consciencia, tampoco tienen: sesgo. Si una computadora debiera juzgar un delito, por ejemplo, sería irrelevante que el acusado fuera negro o blanco, hombre o mujer, creyente o ateo. Un robot policía no estará predispuesto contra ti por cómo lleves el pelo o la ropa. Para un ordenador no eres más que un montón de unos y ceros.

Esta objetividad a toda prueba no sería una ventaja, sin embargo, si el entendimiento humano hiciese una diferencia extraordinaria. Pero este tampoco es el caso. Nosotros somos máquinas biológicas, tan condicionadas y falibles como las sintéticas. Es algo que comprendes cuando lees, por ejemplo, que uno de los factores más decisivos al dictar una sentencia es cuánto hace que el juez tomó una pausa para comer.

Atribuimos al hombre un discernimiento superior otorgado por su consciencia, pero esto está lejos de la verdad. Nuestro cerebro es una computadora, sujeta a errores del sistema que pueden sobrevenir por las causas más insospechadas y producir desastrosos resultados.

La pregunta es hasta qué punto el automatismo de las máquinas es una desventaja y la consciencia, con todos los prejuicios y sesgos que lleva aparejados, una ventaja de los seres humanos. Los robots no te aman, pero tampoco te odian. No tienen opinión sobre ti, no les importas: solo los hechos en forma de números. ¿Y qué cosa hay más ecuánime que las matemáticas?


Antes que si las máquinas pueden o no tomar ciertas decisiones o disponer de autoridad, conviene preguntarse cosas como: ¿quién programa el software de esos robots? ¿Quién se encarga de administrarlas? ¿Cómo garantizamos que un sesgo determinado no sea introducido en el sistema de forma maliciosa?

Existen riesgos consustanciales a todo sistema informático: un ataque contra el software de un robot militar, por ejemplo, sería desastroso. Una vez más la inteligencia artificial no es en sí el problema, sino el manejo que los humanos hagan de ella. Son los hombres, con sus prejuicios y sus intereses, los que determinan si la tecnología es peligrosa.

Puedo imaginar muchas situaciones en las que, de verme obligado, preferiría apostar mis opciones a las máquinas. En un mundo donde se crucifica, se tortura, se trafica con vidas humanas no me inspira confianza el que policías y soldados, jueces y gobernantes sean humanos. La objetividad de las máquinas puede ser extrema, pero su falta de odio y prejuicios es casi tranquilizadora.

¿Pueden las computadoras ocuparse de las cuestiones más sensibles? La respuesta llana es sí, técnicamente. Nadie dentro de la industria duda que la inteligencia artificial será capaz de gestionar todo tipo de infraestructuras. Los sistemas de transporte público, por ejemplo, siguen utilizando operadores humanos por cuestiones legislativas, no prácticas.

La clave es si debemos. En lo personal, y aunque aún me queda mucho por aprender, siento que cada día me acerco un poco a las máquinas. Aún no sabemos si serán tan frías como el silicio del que están hechas o si pueden amar y sentir emoción, pero el ser humano sí ha probado su capacidad de destrucción. Quizá no sea mala idea darles a ellas la oportunidad de salvarnos.

2 comentarios:

  1. Depende...
    de quien le entregue el arma, que tipo de arma y de que robot estemos hablando.
    Quiza estemos hablando con un espejo?

    ResponderEliminar
    Respuestas
    1. No sé si pillo lo del espejo.

      Eliminar

Háblame.