El peligro de la Inteligencia Artificial.

Como Oppenheimer con la bomba, genio renuncia a Google para advertir sobre la IA

Tras renunciar a su cargo en Google para tener más libertad al hablar, el científico Geoffrey Hinton salió a advertir sobre los peligros que encierra la Inteligencia Artificial (IA) y el desarrollo tecnológico sin control de estas tecnologías que se empezaron a hacer muy populares a partir del ChatBot.

Hinton se suma así a un coro de voces que reúnen a emprendedores tecnológicos, expertos e intelectuales, liderados por Elon Musk que publicaron en marzo una carta advirtiendo sobre el desarrollo sin control de estas tecnologías.

En un artículo publicado por el diario New York Times, Hinton es considerado un “padrino” de la Inteligencia Artificial, al desarrollar en 2012, junto a dos de sus estudiantes de la Universidad de Toronto, tecnología que se convirtió en la base de los sistemas de IA.

“Me consuelo diciendome que si no lo hacía yo, lo hubiera hecho alguien más”, dijo Hinton en la entrevista con el diario estadounidense, con palabras que se podrían comparar con las de Robert Oppenheimer considerado el “padre” de la bomba atómica, quien largamente expresó su pesar por la destrucción que causó su invención.

El giro de Hinton, de pionero de la IA a profeta del Apocalipsis, es un evento notable para la industria tecnológica, que enfrenta el punto de inflexión más importante en décadas. Los líderes del sector creen que los nuevos sistemas de IA podrían ser tan cruciales como la llegada de los navegadores web a principios de la década de 1990, y desencadenar un efecto dominó de drásticos avances en todos los ámbitos, desde el desarrollo de medicamentos hasta la educación.

Pero dentro del sector también a muchos los corroe el temor de estar liberando una fiera peligrosa. De hecho, la IA generativa ya está siendo una herramienta de desinformación. Y pronto podría poner en riesgo muchos puestos de trabajo. Y si seguimos por esa línea, hasta podría ser un peligro para la humanidad, apuntan los más preocupados.

“No veo la forma de prevenir que actores malintencionados lo usen para hacer daño”, señala Hinton.

Su historia

Hinton, un expatriado británico de 75 años, y un académico de toda la vida, con una carrera profesional impulsada por sus convicciones personales sobre el desarrollo y el uso de la IA.

En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó el concepto de “red neuronal”, un sistema matemático que aprende habilidades mediante el análisis de datos. Pocos investigadores creyeron en su idea, pero Hinton la convirtió en el trabajo de su vida.

En la década de 1980, Hinton enseñaba ciencias de la computación en la Universidad Carnegie Mellon, pero dejó su cargo y se fue a Canadá porque no estaba dispuesto a recibir fondos del Pentágono: en aquel entonces, la mayor parte de la investigación en IA en Estados Unidos era financiada por el Departamento de Defensa.

Y Hinton se opone tajantemente al uso de iA en el campo de batalla: lo que él llama “soldados robot”.

En 2012, Hinton y dos de sus estudiantes de posgrado en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles.

Google pagó 44 millones de dólares para comprar la empresa fundada por Hinton y sus dos alumnos, y el sistema que habían creado condujo al descubrimiento de tecnologías cada vez más poderosas, incluidos los nuevos bots conversacionales. Sutskever pasó a ser jefe científico de OpenAI. En 2018, Hinton y otros de sus dos colaboradores históricos recibieron el Premio Turing, “el Nobel de la computación”, por su trabajo en redes neuronales.

La nota en The New York Times, que fue replicada por diarios de todo el mundo.

Algunos de sus temores

En el extenso artículo del New York Times, Hinton comparte algunos de sus temores sobre el desarrollo de la Inteligencia Artificial.

El más inmediato es que internet quedará inundado de falsos textos, fotos o videos y “la persona promedio no será capaz de saber qué es verdad nunca más”.

Otra preocupación es la amenaza al mercado laboral, ya que los ChatBot hoy complementan tareas, pero el día de mañana directamente podrían reempalzarlas, dice.

Otra preocupación radica en que estas tecnologías “aprenden” y pueden llegar a programarse a sí mismas, ganar autonomía y volverse en contra del humano de alguna forma.

“La gente creía que eso podría pasar en 40 o 50 años, yo ya no pienso eso”, dijo Hinter.

Fuente: The New York Times/ plan B/ 2-5-2023

Loading