18.4 C
San Nicolás de los Arroyos
jueves, 18 abril, 2024

Edición N° 4751

La Inteligencia Artificial podría acabar con la humanidad más temprano que tarde

TECNOLOGÍA

Así lo afirma el investigador Eliezer Yudkowsky, quien no tiene una perspectiva muy positiva del futuro de la Inteligencia Artificial.

De la redacción de EL NORTE
[email protected]

Algunas IAs como GPT-4 están suponiendo un avance exponencial en la productividad de muchas personas. Para otras, es un riesgo que subraya las profesiones que podrían desaparecer por culpa de la adopción de esta tecnología. Así, existe una visión bastante dual en el mundo de la tecnología: los que piensan que la IA está avanzando demasiado rápido y aquellos que defienden que hay que avanzar todavía más.

Eliezer Yudkowsky, un importante bloguero y experto en inteligencia artificial, fundador del Instituto de Investigación de Inteligencia de Máquinas en California, ha expresado recientemente una visión marcadamente pesimista sobre el futuro de la humanidad en relación con el desarrollo de la IA en una entrevista para el diario británico The Guardian.

Yudkowsky, conocido por sus contribuciones críticas acerca de la IA y su adopción tan vertiginosa, sugiere que el tiempo restante para la humanidad podría ser alarmantemente corto, estimando que estamos más cerca de los cinco años que de los cincuenta, aunque admite que el plazo podría oscilar entre dos y diez años.

Esta visión apocalíptica se centra en la posibilidad de que las máquinas, impulsadas por una Inteligencia Artificial General podrían tarde o temprano, causar la destrucción del planeta. Yudkowsky critica la rapidez con la que la sociedad ha adoptado la IA sin una consideración cuidadosa de los potenciales efectos adversos que esta tecnología podría tener. Según él, los riegos son enormes si no llevamos a cabo un uso ético y responsable de la Inteligencia Artificial.



Yudkowsky sugiere, aunque de forma bromista, que la mejor solución para contrarrestar la amenaza de la IA podría ser bombardear sus centros de datos. Es una broma, claro está, pero pone de manifiesto la enorme preocupación existente por una parte de la comunidad científica que pone de relieve los peligros de una IA que avanza sin ningún freno hacia una posición de ventaja frente a los humanos.

Más sobre las IA

Hace siete meses, Yudkowsky ya participó en las conocidas como charlas TED en las que explicaba su visión al respecto de esta cuestión. En ellas, bromeaba con la posibilidad del fin del mundo, pero también lanzaba una advertencia:

Creo que esto termina con nosotros enfrentándonos a algo más inteligente que nosotros mismos y que tiene otros objetivos. No quiere nada que a nosotros nos parezca valioso, así que no me puedo imaginar cómo sería un conflicto entre la Humanidad y una IA más inteligente.

Su visión, claramente pesimista de la cuestión no está falta de apoyos. Recientemente veíamos cómo el nieto de Oppenheimer firmaba un manifiesto contra la IA, algo que ya ha ocurrido anteriormente y que se debe en buena medida al escaso análisis a la hora de abordar el impacto que puede tener la IA en nuestras vidas.

No es que Yudkowsky esté en contra de la IA, al contrario defiende la creación de una IA amigable, pero para ello es necesario echar el freno y plantear la IA de una manera crítica.

error: ¡Contenido protegido!