Conéctate con nosotros
¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial ¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

INSÓLITO

¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

Los riesgos de la Inteligencia Artificial

Una gran cantidad de académicos, científicos y multimillonarios propietarios de compañías han firmado un pedido para detener inmediatamente el desarrollo de la inteligencia artificial avanzada (IA). Ellos temen que surja una super IA que pueda observar a los humanos como una amenaza para el planeta.

Future of Life, una organización sin ánimo de lucro, publicó una carta en la que el consejero delegado de SpaceX, Elon Musk, el cofundador de Apple Steve Wozniak, el filántropo Andrew Yang y cerca de un millar de otros investigadores de inteligencia artificial pedían la «suspensión inmediata» del entrenamiento de sistemas de IA «más potentes que GPT-4».

La carta afirma que los sistemas de inteligencia artificial con «inteligencia humana competitiva» pueden entrañar «graves riesgos para la sociedad y la humanidad». Pide a los laboratorios que suspendan el entrenamiento durante seis meses.

Te puede gustar:

Los autores de la carta subrayan:

«Sólo deben desarrollarse sistemas potentes de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables».

Más de 1.125 personas firmaron la petición, entre ellas el cofundador de Pinterest Evan Sharp, el cofundador de Ripple Chris Larsen, el CEO de Stability AI Emad Mostak, e investigadores de DeepMind, Harvard, Oxford y Cambridge. También firmaron la carta los pesos pesados de la IA Yoshua Bengio y Stuart Russell. Este último también pide que se suspenda el desarrollo de IA avanzada hasta que expertos independientes desarrollen, apliquen y prueben protocolos de seguridad comunes para dichos sistemas de IA.

La carta detalla los riesgos potenciales para la sociedad y la civilización de los sistemas competitivos de IA en forma de trastornos económicos y políticos.

He aquí el texto íntegro de la carta:

«Los sistemas de inteligencia artificial que compiten con los humanos pueden suponer un grave peligro para la sociedad y la humanidad, como han demostrado numerosas investigaciones y han reconocido los principales laboratorios de inteligencia artificial. Como se afirma en los principios de IA de Asilomar, ampliamente respaldados, la IA avanzada puede desencadenar cambios profundos en la historia de la vida en la Tierra y debe diseñarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no existe, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera descontrolada por desarrollar y desplegar «mentes digitales» cada vez más potentes, cuyo rendimiento no puede predecirse ni controlarse de forma fiable, y que nadie -ni siquiera sus creadores- puede entender.

Los modernos sistemas de inteligencia artificial se están volviendo competitivos en la resolución de problemas comunes, y debemos preguntarnos: ¿debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsificaciones? ¿Debemos automatizar todos los puestos de trabajo, incluidos los que pueden ser sustituidos por la IA? ¿Deberíamos desarrollar «mentes no humanas» que, con el tiempo, podrían superarnos en número, burlarnos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Estas decisiones no deberían delegarse en líderes tecnológicos no elegidos. Sólo deberían desarrollarse potentes sistemas de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y los riesgos controlables. Esta confianza debería estar bien fundada y sólo crecer con la expansión de los efectos potenciales de tales sistemas. Una reciente declaración de OpenAI relativa a la inteligencia artificial general afirma que «en algún momento, puede ser importante obtener una evaluación independiente antes de embarcarse en la formación de futuros sistemas, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de los cálculos utilizados para crear nuevos modelos.Estamos de acuerdo. Ese momento ha llegado ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que suspendan inmediatamente el entrenamiento en sistemas de IA más potentes que el GPT-4 durante al menos seis meses. Esta pausa debe ser universal y controlada, y todos los participantes clave deben participar en ella. Si dicha pausa no puede establecerse rápidamente, los gobiernos deberían intervenir e imponer una moratoria.

Skynet

Skynet

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad comunes para el diseño y desarrollo de IA avanzada que serán revisados y supervisados cuidadosamente por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás en una peligrosa carrera hacia modelos de «caja negra» impredecibles cada vez más grandes y con más capacidades.

La investigación y el desarrollo de la IA deben reorientarse para que los potentes sistemas de IA de última generación actuales sean más precisos, seguros, interpretables, transparentes, fiables, coherentes, dignos de confianza y leales.

Paralelamente, los desarrolladores de IA deben trabajar con las políticas para acelerar en gran medida el desarrollo de sistemas sólidos de control de la IA. Estos esfuerzos deben incluir, como mínimo: reguladores de IA nuevos y capaces; supervisión y control de los sistemas de inteligencia artificial de alto rendimiento y de los grandes conjuntos de potencia de cálculo; sistemas de verificación y marca de agua que ayuden a distinguir el contenido real del generado y a rastrear las fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; fuerte financiación pública para la investigación técnica en seguridad de la IA; instituciones bien dotadas de recursos para hacer frente a los graves trastornos económicos y políticos (especialmente en las democracias) que causará la IA.

La humanidad podrá disfrutar de un futuro próspero con la IA. Tras haber logrado crear sistemas potentes, llegaremos al «verano de la IA», cuando cosechemos los beneficios, desarrollemos estos sistemas en beneficio de todos y demos a la sociedad la oportunidad de adaptarse a ellos. La sociedad ha suspendido el uso de otras tecnologías, con consecuencias potencialmente catastróficas. Podemos aplicar esta medida también aquí».

Los principales laboratorios de inteligencia artificial, como OpenAI, aún no han respondido a la carta.

Gary Marcus, profesor emérito de la Universidad de Nueva York, firmante de la carta, dijo:

«La carta no es perfecta, pero su espíritu es correcto: tenemos que ir más despacio hasta que comprendamos mejor todos los riesgos. Los sistemas de IA pueden causar graves daños. Los grandes actores son cada vez más reservados sobre lo que hacen».

OpenAI presentó GPT-4 el 14 de marzo. El modelo es capaz de interpretar no sólo texto, sino también imágenes. Ahora también reconoce imágenes borrosas, incluidas las dibujadas a mano.

Tras el anuncio del nuevo modelo lingüístico, OpenAI se negó a publicar los materiales de investigación en los que se basaba. Miembros de la comunidad de la IA criticaron la decisión, señalando que socava el espíritu de la empresa como organización de investigación y dificulta que otros reproduzcan su trabajo. Al mismo tiempo, esto dificulta el desarrollo de medios de protección contra las amenazas que plantean los sistemas de IA.

¡Hail SkyNet! ¡Que venga Terminator!

¿Te gustó este artículo? Síguenos en nuestra página de Facebook: Planeta Maldek para que no te pierdas ningún contenido. Además, puedes visitar nuestra portada y acceder a todos los artículos. Además puedes seguirnos en Telegram para recibir al instante la información que aquí publicamos. ¡Gracias por unirte!

Clic para comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INSÓLITO

Historia sorprendente: niña llegó a un pueblo de Rusia asegurando que vivió seis años en otro mundo bajo tierra

Historia sorprendente: niña llegó a un pueblo de Rusia asegurando que vivió seis años en otro mundo bajo tierra
Historias sorprendentes: niña vivió en un mundo extraño durante seis años

En 1980 se produjo en el territorio de Daguestán (Rusia) un suceso que sigue considerándose insólito. En el distrito de Agul, la aldea de Amukh, que aún existe, está habitada predominantemente por dargins. Este pueblo posee una notable leyenda sobre un inframundo donde los vivos coexisten con los espíritus de los muertos.

(más…)

Sigue leyendo

INSÓLITO

Sismólogos han alertado de un posible megaterremoto. Con alerta máxima para la próxima semana

Sismólogos han alertado de un posible megaterremoto. Con alerta máxima para la próxima semana
Advierten de un posible megaterremoto en Japón

Japón ha emitido su primera alerta de megaterremoto tras los temblores registrados en días pasados en la región que sufrió «uno de los terremotos más mortíferos del mundo» hace casi 80 años.

(más…)

Sigue leyendo

INSÓLITO

Comercio de la Antártida por tecnología alienígena: la historia no contada

Comercio de la Antártida por tecnología alienígena: la historia no contada
OVNIs en la Antártida

El programa de radio «Coast to Coast AM«, conocido por sus interesantes debates sobre fenómenos paranormales, presentó recientemente un episodio en el que se exploraba la tentadora posibilidad de un acuerdo secreto entre humanos y extraterrestres. El episodio, titulado «Ellos nos dieron tecnología extraterrestre, nosotros les dimos la Antártida«, profundizaba en las fascinantes afirmaciones de Len Casten, antiguo miembro de las Fuerzas Aéreas estadounidenses, que ha dedicado gran parte de su vida a investigar el fenómeno OVNI.

(más…)

Sigue leyendo
Anbuncio publicitario

Suscríbete al Boletín

* indicates required
Ingresa tu correo electrónico

Intuit Mailchimp

Anbuncio publicitario

Maldekianos online:

TENDENCIA