El experto en inteligencia artificial Eliezer Yudkowsky ha publicado una carta que podría denominarse aterradora, asegura que la superinteligencia nos podría matar a todos.
Es necesario que el entrenamiento de estas tecnologías paren de una vez por todas y de manera indefinida, exige el investigador.
Esto, al menos, hasta que sean seguras y capaces de valorar la vida de las personas y de los seres vivos.
Después de publicarse la carta abierta a la inteligencia artificial, en la que miles de expertos en la materia, entre ellos, Elon Musk y Steve Wozniak, cofundador de Apple, pedían pausar el desarrollo de los sistemas de inteligencia artificial más potentes durante 6 meses para garantizar la seguridad llega otro nuevo escrito generando polémica.
En esta ocasión se trata de un artículo de la revista Time, en el que el experto en inteligencia artificial Eliezer Yudkowsky, que no firmó la carta del future of life institute, explica que los 6 meses de parón son insuficientes y que el entrenamiento de estas tecnologías deberían paralizarse de manera indefinida en todo el mundo hasta que se encuentre la manera de desarrollarlas con seguridad.
En sus propias palabras, la carta abierta pide demasiado poco, pero aún así es mejor que nada.
Yudkowsky, es cofundador del Instituto de Investigación de la inteligencia de las máquinas y uno de los pioneros en el campo de la inteligencia artificial amigable esa que es compatible con los valores humanos.
Lleva más de 20 años investigando el desarrollo de una inteligencia artificial general, así como los peligros que puedan entrañar esta.
Quizá la parte del artículo de Yudkowsky que más ha llamado la atención por aterradora es aquella en la que advierte que de crearse una inteligencia artificial en las circunstancias actuales, todos en la tierra moriremos al poco tiempo.
“Muchos investigadores inmersos en estos temas, incluyendo a mi, esperan que el resultado más probable de construir una inteligencia artificial sobre humanamente inteligente bajo cualquier circunstancia remotamente parecida a las actuales es que literalmente todos en la tierra morirán. No es que no puedas en principio, sobrevivir creando algo mucho más inteligente que tú, es que requeriría precisión y preparación y nuevos conocimientos científicos”, dice el experto en el artículo que lleva por título “Pausar los desarrollos de inteligencia artificial no es suficiente, necesitamos cerrarlo todo”.
Para Yudkowsky, la manera de evitar esto es contar con precisión, preparación y nuevos conocimientos científicos.
De lo contrario, afirma que la inteligencia artificial probablemente no haga lo que queremos y no le importemos nosotros ni la vida sintiente.
En general, su idea es introducir en los sistemas de inteligencia artificial el valor que tiene la propia vida, algo que aún nadie sabe cómo hacer si no se cuenta con esto.
El experto defiende que la inteligencia artificial nos vería como simples recursos para llegar a sus fines.
En opinión de Yudkowsky, un hipotético enfrentamiento entre humanos y una inteligencia superior tendría efectos desastrosos para nosotros, el experto visualiza una inteligencia sobrehumana hostil y no como un ente sin vida que estuviera dentro de internet enviando correos maliciosos, sino como toda una civilización alienígena pensando en millones de veces la velocidad humana, inicialmente confinada en los ordenadores.
Dice “inicialmente” porque según él no permanecería mucho tiempo en ese lugar.
Por el contrario, afirma que esta inteligencia artificial podría construir formas de vida artificiales o incluso dedicarse a la fabricación molecular post biológica.
En el artículo de Time, el experto ha criticado a la compañía OpenAI, responsable de ChatGPT y que ahora mismo se encuentra entrenando GPT 5, por planear que alguna futura inteligencia artificial haga la tarea de alineación de inteligencia artificial.
La alineación, consiste en que las acciones y los objetivos de una inteligencia artificial sean los mismos que los que tienen sus desarrolladores o usuarios, es decir, que la inteligencia artificial haga lo que se le mande, no lo que ella quiera.
No estamos listos, no estamos en camino de estar significativamente más preparados en el futuro previsible si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo a pagar todo, afirma de manera contundente Yudkowsky.
Mi Opinión
En mi opinión y como lo decía en otro contenido, que el Chat GPT por aquí, que el GPT4, por allá, todos ahora quieren utilizar la inteligencia artificial para hacer tareas que antes no lo hacían porque todos quieren fácil.
Yo sí creo en una inminente destrucción de la humanidad, pero no como en las películas que vemos muerte, destrucción y desolación, edificios en llamas y todo eso, mientras las máquinas dominan y por ahí, quizá un remanente de seres humanos que se convierten en los superhéroes. No, para nada.
La destrucción del ser humano viene por el propio ser humano, porque ahora quiere depender de lo que le diga la “inteligencia artificial” lo que tiene que hacer.
Cientos de videos en YouTube y contenido en internet, ya hablan de que todo lo puedes hacer con la inteligencia artificial, y claro, que además puedes ganar mucho dinero.
El discurso barato que he venido escuchando desde muchos años atrás.
Si fuera así, no crees que los miles y miles de personas que consumen estos contenidos, ya fueran millonarios?
Hoy, seguimos en lo mismo, solo que con la frase “inteligencia artificial” y la gente sigue consumiendo ese contenido, aún esperando el milagrito de hacerse rico de la noche a la mañana…
Ya no quiere actuar, ya no quiere trabajar, quiere que todo sea fácil y aquí viene un tema aterrador, ya no quiere pensar… ¿y si deja de pensar qué crees que va a pasar?
Es más, mucha gente ya ha dejado de pensar, porque vive consumiendo basura, por ejemplo en Tiktok.
Y, desde mucho antes de que apareciera TikTok, ya la gente consumía basura y lo sigue haciendo en diferentes medios sociales… ¿o me equivoco?
Entonces empiezan a ser parte de todo ese grupo que se ha dejado manipular y se sigue dejando manipular por la tecnología, y por todo ese contenido en tendencia, que la farándula, que la moda, que tantas tonterías.
Pero ¿quién crees que está detrás de la tecnología? Todavía no se maneja sola, hay gente detrás, gente muy poderosa, que quiere que te vuelvas un simple número para manipularte a placer.
Hace tiempo, hablar de los Illuminati, era hablar de una teoría de conspiración, ahora sabemos que no es una simple teoría.
Como te decía, si no te detienes a pensar por ti mismo, entonces viene la decadencia del ser humano, porque ya no piensa, ya no actúa, ya no va más allá, se conforma con lo que tiene y se conforma con lo que le dicen y solo sigue tendencias, porque está de moda, no porque se detenga a pesar si vale la pena o no.
No se trata de que dejes de utilizar la tecnología, pero sí se trata de que tú domines la tecnología y no que la tecnología te domine a ti ¿ves la diferencia?
Una cosa es utilizar bien la tecnología, como siempre te lo he dicho en este medio, para que sea una ayuda, para que te facilite el trabajo, no para que busques dinero fácil, sino para que seas más eficiente en tu trabajo, que es diferente ¿te das cuenta?
Pero tu tienes que seguir pensando, actuando y trabajando, por el propio bien tuyo y de la misma humanidad, claro está, si todos pensarían igual.
Pero como la gran mayoría ya no quiere pensar, entonces vendrá una inminente extinción del ser humano, no sé si logras comprender lo que te digo…
Por eso, siempre te lo he dicho, la importancia de utilizar bien la tecnología, de utilizarla a tu favor, emprendiendo en negocios digitales, por ejemplo, dominando las herramientas que te he presentado a lo largo de todo este tiempo en mi canal, construyendo un futuro que sea promisorio para ti y tu familia, y no que sea al contrario, que la tecnología te domine y termines destruido…
Pero para emprender y triunfar también es necesario invertir y no esperar todo gratis…o que la inteligencia artificial te lo haga todo!!!
Gran parte de este artículo lo tomé de la página Muy Interesante. Pero aquí sucedió algo muy extraño. Había terminado de editar el contenido tanto para el canal de YouTube, como en negociostart.com y cuando quise revisar una vez más el artículo, ya no estaba, lo habían eliminado.
Qué curioso ¿Quién habría dispuesto la eliminación de ese artículo en una página tan importante como Muy Interesante?
Este es el enlace que eliminaron: https://www.muyinteresante.es/tecnologia/60070.html