Actualidad

¿Podría la Inteligencia Artificial acabar con la humanidad?

 La inteligencia artificial representa un riesgo existencial para la humanidad y debe ser controlada antes de que sea demasiado tarde

La mayoría de los escenarios parten del mismo punto: un día las máquinas superarán las capacidades humanas, escaparán a todo control y se negarán a ser apagadas.

“Una vez que tengamos máquinas que tengan como objetivo la autopreservación, tendremos un buen problema”, dijo el académico especialista en IA Yoshua Bengio durante una conferencia este mes.

Pero debido a que estas máquinas aún no existen, imaginar cómo podrían condenar a la humanidad es tarea a menudo de la filosofía y la ciencia ficción.

Leer sobre: La Alcaldía de Cali está ofreciendo becas para estudiar inglés, así puede aplicar

"Explosión de inteligencia"

El filósofo sueco Nick Bostrom ha mencionado una “explosión de inteligencia”, que ocurrirá cuando las máquinas superinteligentes comiencen a diseñar a su vez otras máquinas.

Las ideas de Bostrom han sido descartadas por muchos como ciencia ficción, sobre todo porque una vez argumentó que la humanidad es una simulación por computadora y apoyó teorías cercanas a la eugenesia.

También se disculpó recientemente después de que se descubriera un mensaje racista que envió en la década de 1990.

Sin embargo, sus pensamientos sobre la IA han tenido una gran influencia, inspirando tanto a Elon Musk como al profesor Stephen Hawking.

Puede leer: Metrocali incumplió con la fecha de inauguración de la Troncal Oriental

Terminator

Si las máquinas superinteligentes van a destruir a la humanidad, seguramente necesitarán una forma física.

El cyborg de ojos rojos interpretado por Arnold Schwarzenegger en “Terminator” ha demostrado ser una imagen impactante.

Pero los expertos han descartado la idea. “Es poco probable que este concepto de ciencia ficción se convierta en realidad en las próximas décadas, si es que alguna vez lo logra”, escribió un grupo activista en contra de los robots bélicos, Stop Killer Robots, en un informe de 2021.

Sin embargo, el grupo ha advertido que dar a las máquinas el poder de tomar decisiones sobre la vida o la muerte es un riesgo existencial.

La experta en robótica Kerstin Dautenhahn, de la Universidad de Waterloo en Canadá, restó importancia a esos temores.

Es poco probable, le dijo a AFP, que la IA le dé a las máquinas mayores capacidades de razonamiento o les insufle el deseo de matar a todos los humanos.

“Los robots no son malos”, dijo, aunque admitió que los programadores pueden hacer que hagan cosas malas.

Sustancias químicas más letales

Un escenario menos fantasioso es el de unos “villanos” que utilizan la IA para crear nuevos virus y propagarlos.

Los potentes modelos de lenguaje como GPT-3, usado para crear ChatGPT, son extremadamente buenos para inventar nuevos agentes químicos horribles.

Un grupo de científicos que empleaba IA para ayudar a descubrir nuevos medicamentos realizó un experimento en el que ajustaron su IA para que inventara moléculas dañinas.

Consiguieron generar 40.000 agentes potencialmente venenosos en menos de seis horas, según informa la revista Nature Machine Intelligence.

La experta en inteligencia artificial Joanna Bryson, de la Hertie School, en Berlín, explicó que es perfectamente factible que alguien descubra una forma de propagar un veneno como el ántrax más rápidamente.

“Pero no es una amenaza existencial. Es solo un arma horrible, espantosa”.

Le puede interesar: Capturaron a hombre que robó arma de dotación de un vigilante de seguridad en el municipio de Yumbo

Especies adelantadas

Las reglas de Hollywood dictan que los desastres de época deben ser repentinos, enormes y dramáticos, pero ¿y si el fin de la humanidad fuera lento, silencioso y no definitivo?

“Nuestra especie podría llegar a su fin sin tener un sucesor”, dice el filósofo Huw Price en un video promocional para el Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge.

Pero en su opinión hay “posibilidades menos sombrías” en las que los humanos mejorados con tecnología avanzada podrían sobrevivir.

Una imagen del apocalipsis a menudo se enmarca en términos evolutivos.

El conocido físico teórico Stephen Hawking argumentó en 2014 que, en última instancia, nuestra especie ya no podrá competir con las máquinas de inteligencia artificial y le dijo a la BBC que podría “significar el fin de la raza humana”.

Geoffrey Hinton, que ha pasado su carrera construyendo máquinas que se asemejan al cerebro humano, habla en términos similares de “superinteligencias” que pura y simplemente superarán a los humanos.

Recientemente, le dijo a la emisora estadounidense PBS que era posible que “la humanidad sea solo una fase pasajera en la evolución de la inteligencia”.

No deje de leer:

Maria Jose Campo Medrano

Noticias recientes

América afronta versiones de demanda por caso Quintero: qué hay realmente detrás del reclamo de Racing

Versiones periodísticas señalan un supuesto incumplimiento contractual, aunque otras fuentes indican que la cláusula en…

14 horas ago

Contraloría abre revisión exhaustiva a la compra de aviones Gripen: exige soportes técnicos y financieros del negocio

El ente de control pidió al Ministerio de Defensa detallar estudios, criterios de selección y…

1 día ago

Petro cuestiona evidencias en caso Huertas y denuncia presiones sobre un testigo preso

El presidente aseguró que no existe material verificable contra el general suspendido y señaló que…

1 día ago

Petro lanza nueva pulla contra EE. UU. tras advertencia de ataques militares en Colombia

Durante una ceremonia en la Escuela Militar José María Córdova, el presidente reiteró su defensa…

1 día ago

Cali encenderá más de 3.900 figuras en su alumbrado navideño 2025

El montaje, que supera el 95% de avance, tendrá nueve zonas temáticas, figuras animatrónicas y…

2 días ago

Modo It de WhatsApp: así funciona la tendencia inspirada en Stephen King

Aunque no es una función oficial, los usuarios han popularizado el llamado “modo It”, una…

2 días ago