TEXTO NUEVO

El avance acelerado de la tecnología durante las últimas décadas plantea cada día nuevos desafíos a la humanidad. Uno de ellos sin duda es la posibilidad de que se desarrollen armas a partir de sistemas de inteligencia artificial, un tópico recurrente en la ciencia ficción. Los académicos Néstor Becerra del Departamento de Ingeniería Eléctrica de la Facultad de Ciencias Físicas y Matemáticas, y Rodrigo González, del Centro de Estudios Cognitivos de la Facultad de Filosofía y Humanidades, exploran algunas de las problemáticas ligadas al posible desarrollo de este tipo de sistemas en el mundo.

Una humanidad esclavizada por máquinas pensantes durante 900 años hasta que una larga y sangrienta rebelión logró liberar el antiguo Imperio Galáctico, es el telón de fondo de la saga de novelas de “Dune”, escritas por Frank Herbert y continuadas por su hijo Brian Herbert y Kevin Anderson.

De una forma similar a esta serie de novelas que ya supera los quince tomos, son numerosas las obras –libros, películas o series de televisión– que desde el siglo XX han tratado la relación y lucha entre la humanidad y formas de inteligencia artificial. Las innumerables obras de Isaac Asimov, las películas de “Terminator” o la serie “Westworld” son sólo algunos ejemplos de un género que ha tratado desde diferentes ángulos la eventual amenaza que implica el desarrollo de inteligencia artificial para los seres humanos.

Pero más allá de la ciencia ficción, incidentes como el sucedido en Facebook el año pasado, que debió apagar dos sistemas de IA luego de que al interactuar en un proceso de negociación desarrollaran un lenguaje que no podía ser comprendido por sus programadores, o el anuncio de un boicot académico contra la universidad surcoreana “KAIST” debido a un acuerdo al que habría llegado para el desarrollo de armas con IA junto el fabricante “Hanwha Systems”, han vuelto a poner el tema sobre la mesa.

Al respecto, el profesor Néstor Becerra, director del Laboratorio de Procesamiento y Transmisión de Voz del Departamento de Ingeniería Eléctrica de la FCFM, explicó que existen tres ramas en las que se dividen las tecnologías de Inteligencia Artificial:

• Métodos que usan reglas bien definidas para razonar y tomar decisiones como programas para jugar ajedrez, los que no tienen capacidad de aprendizaje.

• Tecnologías basadas en el aprendizaje estadístico, que han sido muy efectivas en reconocimiento de voz, rostro y de imágenes con gran capacidad de clasificación y predicción pero sin la capacidad de contextualizar, poseyendo una mínima habilidad de razonar.

• La vertiente que tiene como eje el uso de información de contexto o conocimiento previo, de modo que un sistema pueda aprender a analizar o clasificar usando sólo una pequeña cantidad de ejemplos.

En cuanto a una eventual aplicación de este tipo de tecnología en el área de defensa o armamento, Becerra explicó que “podría corresponder al desarrollo de vehículos o drones que puedan desplazarse sin intervención humana para llegar a un destino, y al uso de técnicas de reconocimiento de patrones para identificar los blancos que deben ser atacados, siendo en esencia la misma tecnología empleada en autos autónomos que deben evitar obstáculos, cambiando sólo el marco de aplicación”.

Sin embargo, el académico aseguró que el desarrollo de la inteligencia artificial está muy lejos de lo presentado en la ciencia ficción. “En la actualidad es difícil imaginar un robot que sea 100 por ciento autónomo, independiente del contexto. Sin embargo, creo que el problema va más allá y está relacionado con la idea de generar vida de modo artificial”.

En este sentido, Becerra relacionó el proceso de conciencia como un resultado de “lo que conocemos como vida con cierto grado de inteligencia, que nos identifica como individuos”, vida que tendría una dinámica darwiniana. “Las preguntas serían ¿Es posible generar vida que no aspire a perpetuarse? ¿Es posible generar vida que no compita por recursos finitos?”, profundizó.

¿Armas con conciencia?

“No construirás una máquina a semejanza de la mente humana”. Este breve planteamiento representa en las novelas de “Dune” la principal salvaguardia de la humanidad para impedir que las “máquinas pensantes” vuelvan a esclavizar a la raza humana, un mandamiento surgido de un siglo de revueltas y resistencia calificado como “jihad” en contra de la inteligencia artificial.

De una manera similar a lo planteado por Frank Herbert, aunque de forma menos impactante, el profesor Rodrigo González, director del Centro de Estudios Cognitivos de la Facultad de Filosofía y Humanidades, cree que es necesario reflexionar respecto a medidas que habría que tomar para evitar escenarios como los planteados en la literatura. “Creo que debería tomarse un acuerdo a nivel de la ONU por ejemplo, para que no proliferen este tipo de armamento, tal como no pueden proliferar las armas químicas”, aseguró.

De manera similar el profesor Becerra aseguró que esta discusión es más bien “Un problema de regulación similar al que ocurre con el desarrollo y proliferación de armas nucleares”.

Por lo mismo el director González recordó las tres leyes de la robótica de Asimov, como un ejemplo de una medida concreta que podría tomarse en cuenta para regular el desarrollo de este tipo de armas, cuya implicancia radicaría en los límites que puede tener la robótica y la tecnología en relación con el bienestar de la humanidad.

Al respecto González advirtió que “es importante que haya una reflexión multidisciplinaria en la medida que hay una serie de componentes en este tema, que tiene que ver con un asunto ético, con filosofía y también con el desarrollo tecnológico”.

De todas maneras el académico de la Facultad de Filosofía advirtió que si bien los robots pueden tener autonomía “es debatible que tengan entendimiento y que puedan sopesar las decisiones que toman. Finalmente estos verdaderos sicarios cibernéticos funcionan en torno a una programación, por lo tanto quienes tienen responsabilidad no son los robots en sí mismo, sino los programadores”.

Texto: Comunicaciones U. de Chile -Casa Central-