Connect with us
¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial ¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

INSÓLITO

¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

Los riesgos de la Inteligencia Artificial

Una gran cantidad de académicos, científicos y multimillonarios propietarios de compañías han firmado un pedido para detener inmediatamente el desarrollo de la inteligencia artificial avanzada (IA). Ellos temen que surja una super IA que pueda observar a los humanos como una amenaza para el planeta.

Future of Life, una organización sin ánimo de lucro, publicó una carta en la que el consejero delegado de SpaceX, Elon Musk, el cofundador de Apple Steve Wozniak, el filántropo Andrew Yang y cerca de un millar de otros investigadores de inteligencia artificial pedían la «suspensión inmediata» del entrenamiento de sistemas de IA «más potentes que GPT-4».

La carta afirma que los sistemas de inteligencia artificial con «inteligencia humana competitiva» pueden entrañar «graves riesgos para la sociedad y la humanidad». Pide a los laboratorios que suspendan el entrenamiento durante seis meses.

Te puede gustar:

Los autores de la carta subrayan:

«Sólo deben desarrollarse sistemas potentes de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables».

Más de 1.125 personas firmaron la petición, entre ellas el cofundador de Pinterest Evan Sharp, el cofundador de Ripple Chris Larsen, el CEO de Stability AI Emad Mostak, e investigadores de DeepMind, Harvard, Oxford y Cambridge. También firmaron la carta los pesos pesados de la IA Yoshua Bengio y Stuart Russell. Este último también pide que se suspenda el desarrollo de IA avanzada hasta que expertos independientes desarrollen, apliquen y prueben protocolos de seguridad comunes para dichos sistemas de IA.

La carta detalla los riesgos potenciales para la sociedad y la civilización de los sistemas competitivos de IA en forma de trastornos económicos y políticos.

He aquí el texto íntegro de la carta:

«Los sistemas de inteligencia artificial que compiten con los humanos pueden suponer un grave peligro para la sociedad y la humanidad, como han demostrado numerosas investigaciones y han reconocido los principales laboratorios de inteligencia artificial. Como se afirma en los principios de IA de Asilomar, ampliamente respaldados, la IA avanzada puede desencadenar cambios profundos en la historia de la vida en la Tierra y debe diseñarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no existe, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera descontrolada por desarrollar y desplegar «mentes digitales» cada vez más potentes, cuyo rendimiento no puede predecirse ni controlarse de forma fiable, y que nadie -ni siquiera sus creadores- puede entender.

Los modernos sistemas de inteligencia artificial se están volviendo competitivos en la resolución de problemas comunes, y debemos preguntarnos: ¿debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsificaciones? ¿Debemos automatizar todos los puestos de trabajo, incluidos los que pueden ser sustituidos por la IA? ¿Deberíamos desarrollar «mentes no humanas» que, con el tiempo, podrían superarnos en número, burlarnos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Estas decisiones no deberían delegarse en líderes tecnológicos no elegidos. Sólo deberían desarrollarse potentes sistemas de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y los riesgos controlables. Esta confianza debería estar bien fundada y sólo crecer con la expansión de los efectos potenciales de tales sistemas. Una reciente declaración de OpenAI relativa a la inteligencia artificial general afirma que «en algún momento, puede ser importante obtener una evaluación independiente antes de embarcarse en la formación de futuros sistemas, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de los cálculos utilizados para crear nuevos modelos.Estamos de acuerdo. Ese momento ha llegado ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que suspendan inmediatamente el entrenamiento en sistemas de IA más potentes que el GPT-4 durante al menos seis meses. Esta pausa debe ser universal y controlada, y todos los participantes clave deben participar en ella. Si dicha pausa no puede establecerse rápidamente, los gobiernos deberían intervenir e imponer una moratoria.

Skynet

Skynet

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad comunes para el diseño y desarrollo de IA avanzada que serán revisados y supervisados cuidadosamente por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás en una peligrosa carrera hacia modelos de «caja negra» impredecibles cada vez más grandes y con más capacidades.

La investigación y el desarrollo de la IA deben reorientarse para que los potentes sistemas de IA de última generación actuales sean más precisos, seguros, interpretables, transparentes, fiables, coherentes, dignos de confianza y leales.

Paralelamente, los desarrolladores de IA deben trabajar con las políticas para acelerar en gran medida el desarrollo de sistemas sólidos de control de la IA. Estos esfuerzos deben incluir, como mínimo: reguladores de IA nuevos y capaces; supervisión y control de los sistemas de inteligencia artificial de alto rendimiento y de los grandes conjuntos de potencia de cálculo; sistemas de verificación y marca de agua que ayuden a distinguir el contenido real del generado y a rastrear las fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; fuerte financiación pública para la investigación técnica en seguridad de la IA; instituciones bien dotadas de recursos para hacer frente a los graves trastornos económicos y políticos (especialmente en las democracias) que causará la IA.

La humanidad podrá disfrutar de un futuro próspero con la IA. Tras haber logrado crear sistemas potentes, llegaremos al «verano de la IA», cuando cosechemos los beneficios, desarrollemos estos sistemas en beneficio de todos y demos a la sociedad la oportunidad de adaptarse a ellos. La sociedad ha suspendido el uso de otras tecnologías, con consecuencias potencialmente catastróficas. Podemos aplicar esta medida también aquí».

Los principales laboratorios de inteligencia artificial, como OpenAI, aún no han respondido a la carta.

Gary Marcus, profesor emérito de la Universidad de Nueva York, firmante de la carta, dijo:

«La carta no es perfecta, pero su espíritu es correcto: tenemos que ir más despacio hasta que comprendamos mejor todos los riesgos. Los sistemas de IA pueden causar graves daños. Los grandes actores son cada vez más reservados sobre lo que hacen».

OpenAI presentó GPT-4 el 14 de marzo. El modelo es capaz de interpretar no sólo texto, sino también imágenes. Ahora también reconoce imágenes borrosas, incluidas las dibujadas a mano.

Tras el anuncio del nuevo modelo lingüístico, OpenAI se negó a publicar los materiales de investigación en los que se basaba. Miembros de la comunidad de la IA criticaron la decisión, señalando que socava el espíritu de la empresa como organización de investigación y dificulta que otros reproduzcan su trabajo. Al mismo tiempo, esto dificulta el desarrollo de medios de protección contra las amenazas que plantean los sistemas de IA.

¡Hail SkyNet! ¡Que venga Terminator!

¿Te gustó este artículo? Síguenos en nuestra página de Facebook: Planeta Maldek para que no te pierdas ningún contenido. Además, puedes visitar nuestra portada y acceder a todos los artículos. Además puedes seguirnos en Telegram para recibir al instante la información que aquí publicamos. ¡Gracias por unirte!

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INSÓLITO

Una guerra interdimensional se cierne sobre nuestras cabezas, indican expertos

Una guerra interdimensional se cierne sobre nuestras cabezas, indican expertos
¿Estamos en medio de una guerra interdimensional?

De acuerdo a un grupo de expertos, la humanidad se ha visto envuelta en una guerra interdimensional que se extiende mucho más allá de la Tierra. En muchas regiones, incluyendo América, Europa y Australia, la población ha experimentado fuertes explosiones y temblores sin explicación hasta la fecha.

(más…)

Continue Reading

INSÓLITO

Viaje a lo desconocido: misteriosas puertas, torres, platillos voladores y Pirámides en la Antártida

Viaje a lo desconocido: misteriosas puertas, torres, platillos voladores y Pirámides en la Antártida
Pirámides, puertas y otros misterios en la Antártida.

La Antártida guarda cierto parecido con Marte, con la excepción de que tiene más oxígeno. El frío es comparable; en algunas zonas, las temperaturas descienden hasta los 90 grados bajo cero. La principal diferencia es que la Antártida está habitada, mientras que Marte no lo está. Sin embargo, esto no implica que el continente helado esté bien explorado; de hecho, se dispone de más imágenes de alta resolución de Marte que de la Antártida. Incluso en las pocas imágenes que tenemos, a veces surgen hallazgos misteriosos.

(más…)

Continue Reading

INSÓLITO

Profesor Simon Holland: «Hemos encontrado una inteligencia no humana en la galaxia»

Profesor Simon Holland: "Hemos encontrado una inteligencia no humana en la galaxia"
¿Se aproxima una revelación extraterrestre?

Simon Holland, académico británico experto en la búsqueda de inteligencia extraterrestre, que ha producido documentales para la NASA, cree que podríamos estar a las puertas de la noticia más transformadora de la historia de la humanidad.

(más…)

Continue Reading
Advertisement

Suscríbete al Boletín

* indicates required
Ingresa tu correo electrónico

Intuit Mailchimp

Advertisement

Maldekianos online:

TENDENCIA