Google ha enfrentado dos sistemas de inteligencia artificial: ¿lucharán o trabajarán juntos?

Google ha enfrentado dos sistemas de inteligencia artificial: ¿lucharán o trabajarán juntos?
11 comentarios Facebook Twitter Flipboard E-mail

Como sabemos, Google cuenta desde hace algunos años con DeepMind, su avanzado sistema de inteligencia artificial, el cual ya ha dado importantes muestras de sus capacidades al ganar en repetidas ocasiones a maestros del Go. De igual forma, DeepMind sigue sigue creciendo al nutrirse de nuevas experiencias como la capacidad de manipular objetos físicos, y hasta jugar StarCraft II.

Google sabe que llegará el día que DeepMind tenga que enfrentarse a otros sistemas de inteligencia artificial, y ese momento será determinante para saber si son capaces de colaborar o entran en conflicto buscando defender cada una sus intereses. Por ello, Google ha decidido anticiparse a ese escenario, y hacer que dos inteligencias artificiales interactuen entre sí dentro de una serie de dilemas sociales.

¿Ser egoista o buscar el bien común?

Hoy Google está dando a conocer los resultados de un interesante estudio realizado por el departamento de DeepMind, donde han puesto a prueba las reacciones y capacidades colaborativas de dos agentes de inteligencia artificial. El objetivo es conocer la respuesta ante situaciones donde pueden beneficiarse al ser egoístas y bloquear a su compañero, algo que también puede ser contraproducente si ambos son egoístas. Sí, algo basado en el famoso dilema del prisionero.

Los investigadores probaron la respuesta de ambos sistemas dentro de dos videojuegos básicos. El primer juego es conocido como 'Gathering', en él veremos a los sistemas representados por un punto rojo y otro azul, quienes deberán recolectar puntos verdes (manzanas) para así obtener puntos. La parte interesante es que cada agente es capaz de disparar un láser al contrincante para paralizarlo momentáneamente y así poder recolectar más manzanas, y por ende más puntos.

Aquí el resultado nos dice que mientras hay manzanas en abundancia, ninguno de los agentes se preocupa por paralizar a su contrincante, algo que cambia de forma radical cuando las existencias disminuyen, que es cuando ambos sacaron su lado más agresivo con tal de bloquear a su rival. Un punto interesante, es que cuando se incorporaba un agente con mayor potencia de cálculo, éste siempre buscaba paralizar a su oponente sin importar que hubiera suficiente suministro de manzanas.

Al ver este comportamiento, los investigadores desarrollaron la hipótesis de que la acción de disparar el láser requiere mayor poder de procesamiento, ya que hay que calcular el movimiento del oponente y anticiparse a sus movimientos para acertar, por ello la estrategia de ataque sólo estuvo presente en el agente más "inteligente". Mientras que el agente "normal" decidió ignorar al contrincante y aprovechar su valioso tiempo en recolectar más manzanas.

El segundo juego es conocido como 'Wolfpack', donde los agentes, representados en color rojo, actúan como lobos cazando a una presa, en color azul, dentro de un escenario lleno de obstáculos. El agente que logre capturar a la presa se lleva puntos, pero si el otro agente está cerca al momento de la captura también recibirá puntos.

Aquí el comportamiento fue interesante pero nada sorprendente, ya que ambos agentes decidieron colaborar en la caza ya que había una recompensa que beneficiaba a ambos. Donde curiosamente el agente más potente buscaba cooperar con el otro y no actuar por su cuenta, ya que al final le servía como ayuda.

La clave está en el contexto

Las conclusiones a las que llegaron los investigadores nos hablan de que el comportamiento de los agentes depende en gran medida del contexto. Aquí la clave serán las reglas que se hayan dictado para la interacción, ya que si estas reglas recompensan el comportamiento agresivo, como el caso de Gathering, el agente luchará hasta ganar. Pero si se recompensa el trabajo colaborativo, como en Wolfpack, entonces ambos agentes buscarán el bien común.

Esto nos dice que en un futuro, cuando la inteligencia artificial tenga una mayor presencia, será determinante que las reglas apunten a la cooperación continua, es decir, reglas claras, concisas y aplicadas en el lugar correcto. Ya que al mínimo síntoma de lucha, competencia o egoísmo, podríamos enfrentarnos a una situación que afecte a todo el ecosistema y, por supuesto, a nuestra sociedad.

Más información | Google DeepMind
En Magnet | Cuando quedarte con 6.800 libras es mejor que ganar 13.600: la brutal lógica del dilema del prisionero

Comentarios cerrados
Inicio