Default default post thumbnail

Inteligencia artificial: dominar el ajedrez, ¿y luego los problemas de la sociedad?

En mayo de 1997, una computadora de ajedrez de IBM, llamada Deep Blue, derrotó por primera vez en la historia a un gran maestro de ajedrez humano (bajo controles de tiempo regulares). Se necesitaron cuatro décadas para que los programas informáticos y el hardware avanzaran desde su primera victoria a mediados de la década de 1950 hasta vencer a un campeón mundial. Sin embargo, en los más de veinte años transcurridos desde entonces, los programas de ajedrez que se ejecutan en hardware relativamente común (como el que se utiliza en los teléfonos inteligentes) pueden vencer de forma rutinaria incluso a los mejores jugadores humanos.

Los programas de ajedrez más potentes utilizan funciones de evaluación hechos a mano, desarrolladas por humanos a lo largo de muchos años, para ayudar a estos programas a jugar el juego con mayor eficacia. Al menos un equipo de científicos informáticos adoptó un enfoque más general desarrollando un sistema que solo requiere conocer las reglas del juego. Llamado AlphaZero, el sistema aprende ajedrez jugando consigo mismo y entrenando sus redes neuronales en función de los resultados. Lo que es más importante, la misma configuración también ha dominado el shogi (un juego más difícil que el ajedrez) y un juego mucho más complejo llamado Go. Por dominio, quiero decir que este programa “autodidacta” iguala o supera a los mejores programas diseñados específicamente para jugar a uno solo de estos juegos.1

Tenga en cuenta que todos estos programas superan a los jugadores humanos más avanzados. Este dominio en diferentes ámbitos por parte del mismo programa plantea dos cuestiones importantes. En primer lugar, ¿representa AlphaZero un avance hacia una inteligencia artificial general (IAG)? En segundo lugar, si pudiéramos desarrollar una IAG, ¿escucharíamos realmente lo que tiene que decir?

AlphaZero y las IAG

AlphaZero representa un paso importante hacia la IAG, pero no está claro que ese paso haga que el desarrollo de una IAG esté más cerca. AlphaZero demuestra que un único sistema puede dominar tres tareas separadas (jugar al ajedrez, al shogi y al Go). Sin embargo, sigue abordando esas tareas por separado. Por lo que veo, AlphaZero no utiliza los conocimientos adquiridos en el aprendizaje del ajedrez para desarrollar un conjunto de principios más generales que aplica al shogi. En cambio, AlphaZero se entrena a sí mismo para jugar al ajedrez, luego comienza desde cero y se entrena para jugar al shogi; luego repite el proceso para jugar al Go.

Las características críticas, como las reglas bien definidas y las condiciones indiscutibles que determinan las victorias, pérdidas y tablas, permiten a AlphaZero dominar los distintos juegos. Sin embargo, esto significa que cada nuevo juego (con nuevas reglas o diferentes objetivos) requiere que AlphaZero empiece desde cero para aprender el nuevo juego. Este proceso difiere notablemente del modo en que los humanos abordarían una ligera variante de un juego conocido. Un humano partiría del conocimiento acumulado del juego original y extrapolaría cómo afectarían los cambios de reglas a ese conocimiento. Aunque AlphaZero demuestra la eficacia del nuevo enfoque de programación, queda por ver si la programación puede alguna vez llegar a emplear la abstracción que los humanos utilizan habitualmente para lidiar con situaciones nuevas e imprevisibles.

¿Escucharían los humanos?

Poco después de que Deep Blue superara a grandes maestros humanos, los humanos dejaron de jugar contra los programas de ajedrez porque estos jugaban un ajedrez muy superior. En su lugar, la gente empezó a utilizar los programas para aprender a jugar mejor porque estos podían explorar una gama de juegos que aún no estaban al alcance de los humanos.

Consideremos ahora un escenario en el que desarrollamos una inteligencia artificial (ya sea estrecha o general) con la capacidad de evaluar opciones sobre algo más significativo, como el cambio climático o la atención médica. El ajedrez es un juego con un objetivo claro, pero la atención médica requiere equilibrar intereses contrapuestos en los que diferentes personas valoran cosas distintas. ¿Necesitaría la inteligencia artificial sus propios valores, o los programarían los humanos? ¿Adoptaríamos un sistema de valores económicos (uso más eficiente de los recursos físicos), un sistema de valores utilitarios (el mayor bien para el mayor número) o uno basado en la inherente dignidad humana (todos y cada uno de los seres humanos tienen valor)? ¿Y si esos valores producen la eliminación de la inteligencia artificial? Y una pregunta aún más práctica: ¿escucharíamos realmente a la inteligencia artificial, o ajustaríamos las entradas para obtener la respuesta que queríamos desde el principio?

La inteligencia artificial seguiría apuntando a un Creador

A primera vista, parece que el desarrollo de la IAG socavaría los pilares centrales de la fe cristiana. Una IAG pondría en tela de juicio la idea del excepcionalismo humano, es decir, que los seres humanos difieren no solo en grado sino también en especie de todas las demás criaturas de la tierra. Y los seres sensibles creados artificialmente desafiarían los fundamentos del evangelio. Sin embargo, mi colega Fuz Rana sostiene que, aunque la inteligencia artificialse volverá cada vez más sofisticada para imitar el comportamiento humano, nunca llegará a ser autoconsciente. Estoy de acuerdo. Además, los valores que los humanos poseen provienen de una conciencia moral que nos separa de la posible IAG.

Un principio central del cristianismo es que Dios creó todo. La Biblia también afirma claramente que los humanos estamos hechos a imagen de Dios (imago Dei). Así como nuestra capacidad de producir arte y música hermosos fluye de la imago Dei, la creación de una IAG por parte de los humanos también refleja esta cualidad y apunta a alguien que nos creó.

Notas
  1. David Silver et al., “A General Reinforcement Learning Algorithm that Masters Chess, Shogi and Go through Self-play,” Science 362, issue 6419 (December 7, 2018): 1140–44, doi:10.1126/science.aar6404.