Conéctate con nosotros
¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial ¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

INSÓLITO

¡Hail Skynet! Académicos y multimillonarios piden detener inmediatamente desarrollo de Inteligencia Artificial

Los riesgos de la Inteligencia Artificial

Una gran cantidad de académicos, científicos y multimillonarios propietarios de compañías han firmado un pedido para detener inmediatamente el desarrollo de la inteligencia artificial avanzada (IA). Ellos temen que surja una super IA que pueda observar a los humanos como una amenaza para el planeta.

Future of Life, una organización sin ánimo de lucro, publicó una carta en la que el consejero delegado de SpaceX, Elon Musk, el cofundador de Apple Steve Wozniak, el filántropo Andrew Yang y cerca de un millar de otros investigadores de inteligencia artificial pedían la «suspensión inmediata» del entrenamiento de sistemas de IA «más potentes que GPT-4».

La carta afirma que los sistemas de inteligencia artificial con «inteligencia humana competitiva» pueden entrañar «graves riesgos para la sociedad y la humanidad». Pide a los laboratorios que suspendan el entrenamiento durante seis meses.

Te puede gustar:

Los autores de la carta subrayan:

«Sólo deben desarrollarse sistemas potentes de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables».

Más de 1.125 personas firmaron la petición, entre ellas el cofundador de Pinterest Evan Sharp, el cofundador de Ripple Chris Larsen, el CEO de Stability AI Emad Mostak, e investigadores de DeepMind, Harvard, Oxford y Cambridge. También firmaron la carta los pesos pesados de la IA Yoshua Bengio y Stuart Russell. Este último también pide que se suspenda el desarrollo de IA avanzada hasta que expertos independientes desarrollen, apliquen y prueben protocolos de seguridad comunes para dichos sistemas de IA.

La carta detalla los riesgos potenciales para la sociedad y la civilización de los sistemas competitivos de IA en forma de trastornos económicos y políticos.

He aquí el texto íntegro de la carta:

«Los sistemas de inteligencia artificial que compiten con los humanos pueden suponer un grave peligro para la sociedad y la humanidad, como han demostrado numerosas investigaciones y han reconocido los principales laboratorios de inteligencia artificial. Como se afirma en los principios de IA de Asilomar, ampliamente respaldados, la IA avanzada puede desencadenar cambios profundos en la historia de la vida en la Tierra y debe diseñarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no existe, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera descontrolada por desarrollar y desplegar «mentes digitales» cada vez más potentes, cuyo rendimiento no puede predecirse ni controlarse de forma fiable, y que nadie -ni siquiera sus creadores- puede entender.

Los modernos sistemas de inteligencia artificial se están volviendo competitivos en la resolución de problemas comunes, y debemos preguntarnos: ¿debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsificaciones? ¿Debemos automatizar todos los puestos de trabajo, incluidos los que pueden ser sustituidos por la IA? ¿Deberíamos desarrollar «mentes no humanas» que, con el tiempo, podrían superarnos en número, burlarnos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Estas decisiones no deberían delegarse en líderes tecnológicos no elegidos. Sólo deberían desarrollarse potentes sistemas de inteligencia artificial cuando estemos seguros de que sus efectos serán positivos y los riesgos controlables. Esta confianza debería estar bien fundada y sólo crecer con la expansión de los efectos potenciales de tales sistemas. Una reciente declaración de OpenAI relativa a la inteligencia artificial general afirma que «en algún momento, puede ser importante obtener una evaluación independiente antes de embarcarse en la formación de futuros sistemas, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de los cálculos utilizados para crear nuevos modelos.Estamos de acuerdo. Ese momento ha llegado ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que suspendan inmediatamente el entrenamiento en sistemas de IA más potentes que el GPT-4 durante al menos seis meses. Esta pausa debe ser universal y controlada, y todos los participantes clave deben participar en ella. Si dicha pausa no puede establecerse rápidamente, los gobiernos deberían intervenir e imponer una moratoria.

Skynet

Skynet

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad comunes para el diseño y desarrollo de IA avanzada que serán revisados y supervisados cuidadosamente por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás en una peligrosa carrera hacia modelos de «caja negra» impredecibles cada vez más grandes y con más capacidades.

La investigación y el desarrollo de la IA deben reorientarse para que los potentes sistemas de IA de última generación actuales sean más precisos, seguros, interpretables, transparentes, fiables, coherentes, dignos de confianza y leales.

Paralelamente, los desarrolladores de IA deben trabajar con las políticas para acelerar en gran medida el desarrollo de sistemas sólidos de control de la IA. Estos esfuerzos deben incluir, como mínimo: reguladores de IA nuevos y capaces; supervisión y control de los sistemas de inteligencia artificial de alto rendimiento y de los grandes conjuntos de potencia de cálculo; sistemas de verificación y marca de agua que ayuden a distinguir el contenido real del generado y a rastrear las fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; fuerte financiación pública para la investigación técnica en seguridad de la IA; instituciones bien dotadas de recursos para hacer frente a los graves trastornos económicos y políticos (especialmente en las democracias) que causará la IA.

La humanidad podrá disfrutar de un futuro próspero con la IA. Tras haber logrado crear sistemas potentes, llegaremos al «verano de la IA», cuando cosechemos los beneficios, desarrollemos estos sistemas en beneficio de todos y demos a la sociedad la oportunidad de adaptarse a ellos. La sociedad ha suspendido el uso de otras tecnologías, con consecuencias potencialmente catastróficas. Podemos aplicar esta medida también aquí».

Los principales laboratorios de inteligencia artificial, como OpenAI, aún no han respondido a la carta.

Gary Marcus, profesor emérito de la Universidad de Nueva York, firmante de la carta, dijo:

«La carta no es perfecta, pero su espíritu es correcto: tenemos que ir más despacio hasta que comprendamos mejor todos los riesgos. Los sistemas de IA pueden causar graves daños. Los grandes actores son cada vez más reservados sobre lo que hacen».

OpenAI presentó GPT-4 el 14 de marzo. El modelo es capaz de interpretar no sólo texto, sino también imágenes. Ahora también reconoce imágenes borrosas, incluidas las dibujadas a mano.

Tras el anuncio del nuevo modelo lingüístico, OpenAI se negó a publicar los materiales de investigación en los que se basaba. Miembros de la comunidad de la IA criticaron la decisión, señalando que socava el espíritu de la empresa como organización de investigación y dificulta que otros reproduzcan su trabajo. Al mismo tiempo, esto dificulta el desarrollo de medios de protección contra las amenazas que plantean los sistemas de IA.

¡Hail SkyNet! ¡Que venga Terminator!

¿Te gustó este artículo? Síguenos en nuestra página de Facebook: Planeta Maldek para que no te pierdas ningún contenido. Además, puedes visitar nuestra portada y acceder a todos los artículos. Además puedes seguirnos en Telegram para recibir al instante la información que aquí publicamos. ¡Gracias por unirte!

Clic para comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

INSÓLITO

Científicos descubren la mayor evidencia de tecnología extraterrestre y megaestructuras espaciales

Científicos descubren la mayor evidencia de tecnología extraterrestre y megaestructuras espaciales
Se han hallado evidencias de tecnología extraterrestre

Durante más de medio siglo, los científicos se han preguntado si la búsqueda de tecnofirmas como las esferas de Dyson de civilizaciones extraterrestres superavanzadas podría ayudarnos a descubrir vida inteligente en otros lugares del universo. Ahora, dos nuevos estudios analizan datos de satélites de observación estelar para desarrollar un marco que permita eliminar falsos positivos o posibles explicaciones naturales en esa búsqueda. Cada estudio ha hallado pruebas de que un puñado de estrellas de entre los millones observados contienen un exceso de radiación compatible con posibles esferas de Dyson y que no puede explicarse inmediatamente como un fenómeno natural.

(más…)

Sigue leyendo

INSÓLITO

Puertas estelares y civilizaciones antiguas. ¿Podrían abrir portales a mundos distantes?

Puertas estelares y civilizaciones antiguas. ¿Podrían abrir portales a mundos distantes?
Portales estelares en el mundo antiguo.

¿Por qué todas las culturas antiguas hablan de puertas estelares? ¿Podían abrir portales que los condujeran a mundos distantes o a otras dimensiones?

(más…)

Sigue leyendo

INSÓLITO

Kenny Veach desapareció tras ir a buscar una misteriosa cueva en forma de «M» cerca del Área 51

Kenny Veach desapareció tras ir a buscar una misteriosa cueva en forma de "M" cerca del Área 51
El misterio de la desaparición de Kenny Veach.

Hay historias de muchos exploradores que desaparecieron por hacer algo que más les gustaba. Entre ellos se encontraba un ávido excursionista, Kenny Veach, muy popular en YouTube entre sus seguidores. Desapareció de la faz de la Tierra el 10 de noviembre de 2014, mientras exploraba una misteriosa cueva en el desierto de Mojave, California. Durante casi una década, la desaparición de Kenny Veach sigue siendo uno de los mayores misterios porque su última ubicación fue cerca del lugar donde se encuentra la secreta base de la Fuerza Aérea de Estados Unidos Área 51, que durante mucho tiempo ha estado rodeada de misterio.

(más…)

Sigue leyendo
Anbuncio publicitario

Suscríbete al Boletín de Noticias

* campo requerido

Intuit Mailchimp

Anbuncio publicitario

Maldekianos online:

TENDENCIA