Conéctate con nosotros
¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial ¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

INSÓLITO

¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

Los riesgos de la Inteligencia Artificial

Una gran cantidad de académicos, científicos y multimillonarios propietarios de compañías han firmado un pedido para detener inmediatamente el desarrollo de la inteligencia artificial avanzada (IA). Ellos temen que surja una super IA que pueda observar a los humanos como una amenaza para el planeta.

Future of Life, una organización sin ánimo de lucro, publicó una carta en la que el consejero delegado de SpaceX, Elon Musk, el cofundador de Apple Steve Wozniak, el filántropo Andrew Yang y cerca de un millar de otros investigadores de inteligencia artificial pedían la «suspensión inmediata» del entrenamiento de sistemas de IA «más potentes que GPT-4».

La carta afirma que los sistemas de inteligencia artificial con «inteligencia humana competitiva» pueden entrañar «graves riesgos para la sociedad y la humanidad». Pide a los laboratorios que suspendan el entrenamiento durante seis meses.

Te puede gustar:

Los autores de la carta subrayan:

«Sólo deben desarrollarse sistemas potentes de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables».

Más de 1.125 personas firmaron la petición, entre ellas el cofundador de Pinterest Evan Sharp, el cofundador de Ripple Chris Larsen, el CEO de Stability AI Emad Mostak, e investigadores de DeepMind, Harvard, Oxford y Cambridge. También firmaron la carta los pesos pesados de la IA Yoshua Bengio y Stuart Russell. Este último también pide que se suspenda el desarrollo de IA avanzada hasta que expertos independientes desarrollen, apliquen y prueben protocolos de seguridad comunes para dichos sistemas de IA.

La carta detalla los riesgos potenciales para la sociedad y la civilización de los sistemas competitivos de IA en forma de trastornos económicos y políticos.

He aquí el texto íntegro de la carta:

«Los sistemas de inteligencia artificial que compiten con los humanos pueden suponer un grave peligro para la sociedad y la humanidad, como han demostrado numerosas investigaciones y han reconocido los principales laboratorios de inteligencia artificial. Como se afirma en los principios de IA de Asilomar, ampliamente respaldados, la IA avanzada puede desencadenar cambios profundos en la historia de la vida en la Tierra y debe diseñarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no existe, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera descontrolada por desarrollar y desplegar «mentes digitales» cada vez más potentes, cuyo rendimiento no puede predecirse ni controlarse de forma fiable, y que nadie -ni siquiera sus creadores- puede entender.

Los modernos sistemas de inteligencia artificial se están volviendo competitivos en la resolución de problemas comunes, y debemos preguntarnos: ¿debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsificaciones? ¿Debemos automatizar todos los puestos de trabajo, incluidos los que pueden ser sustituidos por la IA? ¿Deberíamos desarrollar «mentes no humanas» que, con el tiempo, podrían superarnos en número, burlarnos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Estas decisiones no deberían delegarse en líderes tecnológicos no elegidos. Sólo deberían desarrollarse potentes sistemas de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y los riesgos controlables. Esta confianza debería estar bien fundada y sólo crecer con la expansión de los efectos potenciales de tales sistemas. Una reciente declaración de OpenAI relativa a la inteligencia artificial general afirma que «en algún momento, puede ser importante obtener una evaluación independiente antes de embarcarse en la formación de futuros sistemas, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de los cálculos utilizados para crear nuevos modelos.Estamos de acuerdo. Ese momento ha llegado ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que suspendan inmediatamente el entrenamiento en sistemas de IA más potentes que el GPT-4 durante al menos seis meses. Esta pausa debe ser universal y controlada, y todos los participantes clave deben participar en ella. Si dicha pausa no puede establecerse rápidamente, los gobiernos deberían intervenir e imponer una moratoria.

Skynet

Skynet

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad comunes para el diseño y desarrollo de IA avanzada que serán revisados y supervisados cuidadosamente por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás en una peligrosa carrera hacia modelos de «caja negra» impredecibles cada vez más grandes y con más capacidades.

La investigación y el desarrollo de la IA deben reorientarse para que los potentes sistemas de IA de última generación actuales sean más precisos, seguros, interpretables, transparentes, fiables, coherentes, dignos de confianza y leales.

Paralelamente, los desarrolladores de IA deben trabajar con las políticas para acelerar en gran medida el desarrollo de sistemas sólidos de control de la IA. Estos esfuerzos deben incluir, como mínimo: reguladores de IA nuevos y capaces; supervisión y control de los sistemas de inteligencia artificial de alto rendimiento y de los grandes conjuntos de potencia de cálculo; sistemas de verificación y marca de agua que ayuden a distinguir el contenido real del generado y a rastrear las fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; fuerte financiación pública para la investigación técnica en seguridad de la IA; instituciones bien dotadas de recursos para hacer frente a los graves trastornos económicos y políticos (especialmente en las democracias) que causará la IA.

La humanidad podrá disfrutar de un futuro próspero con la IA. Tras haber logrado crear sistemas potentes, llegaremos al «verano de la IA», cuando cosechemos los beneficios, desarrollemos estos sistemas en beneficio de todos y demos a la sociedad la oportunidad de adaptarse a ellos. La sociedad ha suspendido el uso de otras tecnologías, con consecuencias potencialmente catastróficas. Podemos aplicar esta medida también aquí».

Los principales laboratorios de inteligencia artificial, como OpenAI, aún no han respondido a la carta.

Gary Marcus, profesor emérito de la Universidad de Nueva York, firmante de la carta, dijo:

«La carta no es perfecta, pero su espíritu es correcto: tenemos que ir más despacio hasta que comprendamos mejor todos los riesgos. Los sistemas de IA pueden causar graves daños. Los grandes actores son cada vez más reservados sobre lo que hacen».

OpenAI presentó GPT-4 el 14 de marzo. El modelo es capaz de interpretar no sólo texto, sino también imágenes. Ahora también reconoce imágenes borrosas, incluidas las dibujadas a mano.

Tras el anuncio del nuevo modelo lingüístico, OpenAI se negó a publicar los materiales de investigación en los que se basaba. Miembros de la comunidad de la IA criticaron la decisión, señalando que socava el espíritu de la empresa como organización de investigación y dificulta que otros reproduzcan su trabajo. Al mismo tiempo, esto dificulta el desarrollo de medios de protección contra las amenazas que plantean los sistemas de IA.

¡Hail SkyNet! ¡Que venga Terminator!

¿Te gustó este artículo? Síguenos en nuestra página de Facebook: Planeta Maldek para que no te pierdas ningún contenido. Además, puedes visitar nuestra portada y acceder a todos los artículos. Además puedes seguirnos en Telegram para recibir al instante la información que aquí publicamos. ¡Gracias por unirte!

Clic para comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INSÓLITO

Cydonia, la mítica ciudad abandonada en Marte

Cydonia, la mítica ciudad abandonada en Marte
El misterio de Cydonia

Hoy vamos a acercarnos a la región de Cydonia, muy cerca de la famosa cara de Marte en donde parece erigirse una gigantesca pirámide pentagonal que se erige a pocos kilómetros de allí. Si entendemos que esta construcción posee unas medidas que van mas allá de la casualidad matemática y estudiamos cómo cada uno de los elementos parece estar formando una espiral áurea basada en el número phi (1.61803399), podemos llegar a la conclusión de que este complejo arquitectónico es una auténtica demostración de saber científico.

(más…)

Sigue leyendo

INSÓLITO

¿Qué predijo Nostradamus para 2024 que ha desatado la preocupación por la Tercera Guerra Mundial?

Nostradamus y sus profecías sobre la Tercera Guerra Mundial

Tras el reciente ataque de Irán contra Israel, las tensiones en Oriente Próximo han alcanzado un punto de ebullición. El 13 de abril, las acciones bélicas de Irán tras el anterior ataque israelí al consulado en Siria, han suscitado inquietud en todo el mundo. En un hecho inesperado, las sirenas antiaéreas resonaron en varias regiones, desde el norte y el sur de Israel hasta el norte de Cisjordania y el Mar Muerto, han reavivado el temor a un conflicto más amplio.

(más…)

Sigue leyendo

INSÓLITO

Anomalía detectada en la Antártida fue causada por un enorme objeto caído desde el espacio

Anomalía detectada en la Antártida fue causada por un enorme objeto caído desde el espacio
Anomalía en la Antártida

El continente más remoto de la Tierra y con menor cantidad de humanos, oculta algo muy extraño. Científicos detectaron una anomalía en medio de la Antártida, y lo que causó esta extrañeza es un objeto que cayó del cielo.

(más…)

Sigue leyendo
Anbuncio publicitario

Suscríbete al Boletín de Noticias

* campo requerido

Intuit Mailchimp

Anbuncio publicitario

Maldekianos online:

TENDENCIA