Musk y Wozniak piden una pausa en el desarrollo de una IA “más potente” que GPT-4
Elon Musk, Steve Wozniak, el pionero de la IA Yoshua Bengio y otros firmaron un carta abierta pidiendo un pausa de seis meses en el desarrollo de nuevas herramientas de IA más potentes que GPT-4la tecnología lanzada a principios de este mes por la startup OpenAI respaldada por Microsoft, la Wall Street Journal informes.
Los sistemas de IA contemporáneos ahora se están volviendo competitivos con los humanos en tareas generalesy debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? Deberíamos automatiza todos los trabajosincluidos los que cumplen? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos.. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. –futurodevida.org
“Hemos llegado al punto en que estos sistemas son lo suficientemente inteligentes como para que puedan usarse de formas peligrosas para la sociedad.“, dijo Bengio, director del Instituto de Montreal para Algoritmos de Aprendizaje de la Universidad de Montreal, y agregó:” Y aún no entendemos “.
Sus preocupaciones se expusieron en una carta titulada “Pause Giant AI Experiments: An Open Letter”, que fue encabezada por el Future of Life Institute, una organización sin fines de lucro asesorada por Musk.
La carta no llama para todos desarrollo de IA detener, pero insta a las empresas a detener temporalmente los sistemas de formación más potentes que GPT-4, la tecnología lanzada este mes por microsoft OpenAI, una startup respaldada por Corp. Eso incluye la próxima generación de la tecnología de OpenAI, GPT-5.
Los funcionarios de OpenAI dicen que no han comenzado a entrenar GPT-5. En una entrevista, el director ejecutivo de OpenAI, Sam Altman, dijo que la empresa ha dado prioridad durante mucho tiempo a la seguridad en el desarrollo y pasó más de seis meses realizando pruebas de seguridad en GPT-4 antes de su lanzamiento. -WSJ
“En cierto sentido, esto es predicar al coro”, dijo Altman. “Creo que hemos estado hablando de estos temas más fuerte, con más intensidad, durante más tiempo”.
Goldman, mientras tanto, dice que hasta 300 millones de empleos podría reemplazarse con IA, ya que “dos tercios de las ocupaciones podrían ser parcialmente automatizadas por IA”.
La llamada IA generativa crea contenido original basado en indicaciones humanas, una tecnología que ya se ha implementado en el motor de búsqueda Bing de Microsoft y otras herramientas. Poco tiempo después, Google desplegó un rival llamado Bardo. Otras empresas, incluidas Adobe, Salesforce y Zoom, han introducido herramientas avanzadas de inteligencia artificial.
“Hoy comienza una carrera”, dijo el CEO de Microsoft, Satya Nadella, en comentarios el mes pasado. “Vamos a movernos, y movernos rápido”.
Uno de los organizadores de la carta.Max Tegmark, que dirige el Future of Life Institute y es profesor de física en el Instituto Tecnológico de Massachusetts, lo llama una “carrera suicida”.
“Es desafortunado enmarcar esto como una carrera armamentista”, dijo. “Es más una carrera suicida. No importa quién llegue primero. Simplemente significa que la humanidad en su conjunto podría perder el control de su propio destino”.
El Future of Life Institute comenzó a trabajar en la carta la semana pasada e inicialmente permitió que cualquiera firmara sin verificación de identidad. En un momento, el nombre del Sr. Altman se agregó a la carta, pero luego se eliminó. El Sr. Altman dijo que nunca firmó la carta. Dijo que la empresa se coordina con frecuencia con otras empresas de IA sobre estándares de seguridad y para discutir preocupaciones más amplias.
“Hay trabajo que no hacemos porque creemos que todavía no sabemos cómo hacerlo lo suficientemente seguro,” él dijo. “Así que sí, creo que hay formas en las que puedes reducir la velocidad en múltiples ejes y eso es importante. Y es parte de nuestra estrategia”. -WSJ
Musk, uno de los primeros fundadores y patrocinador financiero de OpenAI, y Wozniak, han hablado abiertamente sobre los peligros de la IA durante un tiempo.
“Hay serios problemas de riesgo de IA”, tuiteó.
El científico jefe de IA de Meta, Yann LeCun, no firmó la carta abierta porque dice que el no está de acuerdo con su premisa (sin dar más detalles).
Por supuesto, algunos ya están especulando que los signatarios puede tener motivos ocultos.
Lea esto como “una moratoria de seis meses o más me daría tiempo para copiar y/o construir algo similar y no quedarme al margen”. https://t.co/MsO0PwkJON
— mapache alfa (@thealpharaccoon) 29 de marzo de 2023
Tyler Durden
mié, 29/03/2023 – 09:25
Source link
Tyler Durden