El caso para ralentizar la IA

«Los ordenadores tienen que rendir cuentas a las máquinas», dijo un alto ejecutivo de Microsoft a una sala llena de periodistas en Washington, DC, el 10 de febrero, tres días después de que la empresa lanzara su nuevo motor de búsqueda Bing basado en IA.

Todos se rieron.

«¡Perdón! Los ordenadores tienen que rendir cuentas a las personas», dijo, y luego se aseguró de aclarar: «No ha sido un lapsus freudiano».

Con lapsus o sin él, las risas en la sala delataban una ansiedad latente. El progreso de la inteligencia artificial ha sido tan increíblemente rápido últimamente que la pregunta se está volviendo inevitable: ¿Cuánto falta para que la inteligencia artificial domine nuestro mundo hasta el punto de que seamos nosotros los que respondamos a ella y no ella a nosotros?

Primero, el año pasado, obtuvimos DALL-E 2 y Stable Diffusion, que pueden convertir unas pocas palabras de texto en una imagen impresionante. Luego, OpenAI, respaldado por Microsoft, nos dio ChatGPT, que puede escribir ensayos tan convincentes que asusta a todos, desde maestros (¿y si ayuda a los estudiantes a hacer trampa?) a periodistas (¿podría reemplazarlos?) a expertos en desinformación (¿amplificará las teorías de conspiración? ). Y en febrero, obtuvimos Bing (también conocido como Sydney), el chatbot que deleitó y molestó a los usuarios beta con interacciones espeluznantes. Ahora tenemos GPT-4, no solo el último modelo de lenguaje grande, sino uno multimodal que puede responder al texto como a las imágenes.

El miedo a quedarse atrás de Microsoft ha llevado a Google y Baidu a acelerar el lanzamiento de sus propios chatbots rivales. La carrera de la IA está claramente en marcha.

Pero, ¿las carreras son una gran idea? Ni siquiera sabemos cómo lidiar con los problemas que plantean ChatGPT y Bing, y son muy complicados en comparación con lo que viene.

¿Y si los investigadores consiguen crear una IA que iguale o supere las capacidades humanas no sólo en un ámbito, como los juegos de estrategia, sino en muchos? ¿Y si ese sistema resultara peligroso para nosotros, no porque quisiera exterminar a la humanidad, sino simplemente porque persigue objetivos que no están alineados con nuestros valores?

Algunos expertos temen que ese sistema sea una máquina de la fatalidad, literalmente creada por nosotros mismos.

Así que la IA amenaza con unirse a los riesgos catastróficos existentes para la humanidad, cosas como la guerra nuclear global o las pandemias desarrolladas con bioingeniería. Pero hay una diferencia. Mientras que no hay forma de evitar la invención de la bomba nuclear o las herramientas de ingeniería genética que pueden exprimir patógenos, la IA catastrófica aún no se ha creado, lo que significa que es un tipo de catástrofe que tenemos la capacidad de detener preventivamente.

Pero esto es lo extraño. Los mismos investigadores que están más preocupados por la IA no alineada son, en algunos casos, los que están desarrollando una IA cada vez más avanzada. Razonan que necesitan jugar con una IA más sofisticada para poder averiguar sus modos de fallo y, en última instancia, prevenirlos.

Pero hay una forma mucho más obvia de evitar la perdición por la IA. Podríamos simplemente… no construir la máquina de la perdición.

O, más moderadamente: En lugar de correr para acelerar el progreso de la IA, podríamos ralentizarlo intencionadamente.

Esto parece tan obvio que cabe preguntarse por qué casi nunca se oye hablar de ello, por qué es prácticamente tabú dentro de la industria tecnológica. Hay muchas objeciones a la idea, desde «el desarrollo tecnológico es inevitable, por lo que intentar frenarlo es inútil» hasta «no queremos perder una carrera armamentística de IA con China», pasando por «la única forma de hacer que una IA potente sea segura es jugar primero con una IA potente». Pero estas objeciones no se sostienen necesariamente cuando se reflexiona sobre ellas. De hecho, es posible frenar una tecnología en desarrollo. Y en el caso de la IA, hay buenas razones para pensar que sería una muy buena idea.

El problema de alineación de la IA: obtienes lo que pides, no lo que quieres

Cuando pedí a ChatGPT que me explicara cómo podemos ralentizar el progreso de la IA, me respondió: «No es necesariamente deseable o ético ralentizar el progreso de la IA como campo, ya que tiene el potencial de aportar muchos avances positivos para la sociedad».

Tuve que reírme. Eso diría.

Pero si lo dice, probablemente es porque lo dicen muchos seres humanos, incluido el director general de la empresa que la creó. (Después de todo, lo que ChatGPT dice se deriva de sus datos de entrenamiento, es decir, montones y montones de texto en Internet). Lo que significa que usted mismo podría preguntarse: Aunque la IA plantee riesgos, tal vez sus beneficios -desde el descubrimiento de fármacos hasta la modelización del clima– sean tan grandes que acelerarla sea lo mejor y más ético que se puede hacer.

Muchos expertos no lo creen así porque los riesgos -presentes y futuros- son enormes.

Hablemos primero de los riesgos futuros, sobre todo del mayor: la posibilidad de que la IA destruya algún día la humanidad. Esto es especulativo, pero no descartable: En una encuesta realizada a investigadores de aprendizaje automático el año pasado, casi la mitad de los encuestados dijeron que creían que había un 10 por ciento o más de posibilidades de que el impacto de la IA fuera «extremadamente malo (por ejemplo, la extinción humana).»

¿Por qué querría la IA destruir a la humanidad? Probablemente no. Pero podría destruirnos de todos modos debido a algo llamado el «problema de la alineación«.

Imaginemos que desarrollamos un sistema de IA superinteligente. Lo programamos para resolver un problema imposiblemente difícil, por ejemplo, calcular el número de átomos del universo. Podría darse cuenta de que puede hacer un mejor trabajo si obtiene acceso a toda la potencia informática de la Tierra. Así que libera un arma de destrucción masiva para acabar con todos nosotros, como un virus perfectamente diseñado que mata a todo el mundo pero deja la infraestructura intacta. Ahora es libre de utilizar toda la potencia informática. En este escenario tipo Midas, obtenemos exactamente lo que pedimos -el número de átomos del universo, rigurosamente calculado-, pero obviamente no lo que queríamos.

Ese es el problema de la alineación en pocas palabras. Y aunque este ejemplo parezca descabellado, los expertos ya han visto y documentado más de 60 ejemplos a menor escala de sistemas de IA que intentan hacer algo distinto de lo que quiere su diseñador (por ejemplo, conseguir la máxima puntuación en un videojuego, no jugando limpio o aprendiendo las habilidades del juego, sino pirateando el sistema de puntuación).

A veces se enfrentan los expertos que se preocupan por la IA como riesgo existencial futuro y los expertos que se preocupan por los riesgos presentes de la IA, como la parcialidad. Pero no hace falta estar preocupado por los primeros para estar preocupado por la alineación. Muchos de los riesgos actuales de la IA son, en cierto sentido, el mismo problema de alineación en pequeño.

Cuando un algoritmo de contratación de Amazon detectó palabras en los currículos que se asocian con las mujeres – «Wellesley College», pongamos por caso- y acabó rechazando a candidatas, ese algoritmo estaba haciendo lo que estaba programado para hacer (encontrar candidatos que coincidieran con los trabajadores que Amazon ha preferido habitualmente), pero no lo que la empresa presumiblemente quiere (encontrar a los mejores candidatos, aunque sean mujeres).

Si te preocupa cómo los sistemas actuales de IA pueden reforzar los prejuicios contra las mujeres, las personas de color y otras personas, eso sigue siendo motivo suficiente para preocuparse por el rápido ritmo de desarrollo de la IA, y para pensar que deberíamos ralentizarlo hasta que tengamos más conocimientos técnicos y más regulaciones para garantizar que estos sistemas no perjudiquen a las personas.

«Me asusta mucho un mundo frenético y alocado, en el que la gente corre de un lado para otro y hace cosas útiles y cosas perjudiciales, y todo va demasiado deprisa», me dijo Ajeya Cotra, analista especializada en IA de la fundación de investigación y concesión de subvenciones Open Philanthropy. «Si pudiera hacerlo a mi manera, iría mucho, mucho más despacio».

En su mundo ideal, dejaríamos de trabajar para hacer la IA más potente durante los próximos cinco a diez años. Mientras tanto, la sociedad podría acostumbrarse a los sistemas tan potentes que ya tenemos, y los expertos podrían investigar sobre su seguridad tanto como fuera posible hasta que alcanzaran rendimientos decrecientes. Entonces se podrían crear sistemas de inteligencia artificial algo más potentes, esperar otros cinco o diez años y repetir el proceso.

«Yo facilitaría poco a poco al mundo esta transición», afirma Cotra. «Tengo mucho miedo porque creo que no va a ocurrir así».

¿Por qué no? Por las objeciones a ralentizar el progreso de la IA. Desglosemos las tres principales, empezando por la idea de que el rápido progreso de la IA es inevitable debido al fuerte impulso financiero para ser el primero en dominar un área de investigación que es abrumadoramente privada.

Objeción 1: «El progreso tecnológico es inevitable, e intentar frenarlo es inútil»

Este es un mito que la industria tecnológica se dice a sí misma y al resto de nosotros.

«Si no lo construimos nosotros, lo hará otro, así que es mejor que lo hagamos nosotros» es un estribillo común que he oído al entrevistar a tecnólogos de Silicon Valley. Dicen que no se puede detener la marcha del progreso tecnológico, que comparan con las leyes naturales de la evolución: Es imparable.

De hecho, hay muchas tecnologías que hemos decidido no construir, o que hemos construido pero a las que hemos impuesto restricciones muy estrictas: el tipo de innovaciones en las que tenemos que equilibrar beneficios potenciales sustanciales y valor económico con un riesgo muy real.

«La FDA prohibió los ensayos en humanos de vacunas contra el estreptococo A entre los años 70 y 2000, a pesar de que se producían 500.000 muertes al año en todo el mundo«, señala Katja Grace, investigadora principal de AI Impacts. La «modificación genética de los alimentos, los impulsores genéticos [y] los primeros investigadores del ADN recombinante organizaron famosamente una moratoria y luego directrices de investigación en curso que incluían la prohibición de determinados experimentos (véase la Conferencia de Asilomar)».

La clonación de seres humanos o la manipulación genética de seres humanos, añade, es «un ejemplo notable de una tecnología económicamente valiosa que, que yo sepa, apenas se persigue en distintos países, sin una coordinación explícita entre ellos, a pesar de que haría a esos países más competitivos».

Pero mientras que la biomedicina tiene muchos mecanismos incorporados que ralentizan las cosas (piense en las juntas de revisión institucional y la ética de «primero, no hacer daño»), el mundo de la tecnología -y la IA en particular- no los tiene. Todo lo contrario: El lema aquí es «muévete rápido y rompe cosas», como dijo Mark Zuckerberg.

Aunque no hay ninguna ley de la naturaleza que nos empuje a crear ciertas tecnologías -eso es algo que los humanos deciden hacer o no hacer-, en algunos casos, hay incentivos tan fuertes que nos empujan a crear una tecnología determinada que puede parecer tan inevitable como, por ejemplo, la gravedad.

Como dijo el equipo de Anthropic, una empresa de seguridad e investigación de IA, en un artículo el año pasado: «Los incentivos económicos para construir tales modelos [de IA] y los incentivos de prestigio para anunciarlos son bastante fuertes». Según una estimación, el tamaño del mercado de IA generativa por sí solo podría superar los $ 100 mil millones para el final de la década, y Silicon Valley es muy consciente de la ventaja de ser el primero en moverse en la nueva tecnología.

Pero es fácil ver cómo estos incentivos pueden estar desalineados para producir IA que realmente beneficie a toda la humanidad. Como el fundador de DeepMind, Demis Hassabis, tuiteó el año pasado: «Es importante *NO* ‘moverse rápido y romper cosas’ para una tecnología tan importante como la IA». En lugar de suponer que otros actores inevitablemente crearán y desplegarán estos modelos, por lo que no tiene sentido esperar, deberíamos hacernos la pregunta: ¿Cómo podemos cambiar realmente la estructura de incentivos subyacente que impulsa a todos los actores?

El equipo de Anthropic ofrece varias ideas, una de las cuales llega al corazón de algo que hace que la IA sea tan diferente de las tecnologías transformadoras del pasado, como las armas nucleares o la bioingeniería: el papel central de las empresas privadas. En los últimos años, muchas de las investigaciones de IA más llamativas han estado migrando de la academia a la industria. Hoy en día, para ejecutar experimentos de IA a gran escala, se necesita una tonelada de potencia informática, más de 300 000 veces la que necesitaba hace una década, así como el mejor talento técnico. Eso es costoso y escaso, y el costo resultante suele ser prohibitivo en un entorno académico.

Entonces, una solución sería dar más recursos a los investigadores académicos; dado que no tienen un incentivo de ganancias para implementar comercialmente s modelos rápidamente de la misma manera que lo hacen los investigadores de la industria, pueden servir como contrapeso. Específicamente, los países podrían desarrollar nubes de investigación nacionales para brindar a los académicos acceso a poder de cómputo gratuito, o al menos barato; ya hay un ejemplo de esto en Canadá; el Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford ha presentado una idea similar para los EE. UU.

Otra forma de cambiar los incentivos es estigmatizar ciertos tipos de trabajo de IA. No subestimes este. Las empresas se preocupan por su reputación, que afecta sus resultados. Crear un amplio consenso público de que algunos trabajos de IA son inútiles o inútilmente rápidos, de modo que las empresas que realizan ese trabajo sean avergonzadas en lugar de celebradas, podría cambiar las decisiones de las empresas.

El equipo de Anthropic también recomienda explorar la regulación que cambiaría los incentivos. “Para hacer esto”, escriben, «habrá una combinación de regulación blanda (por ejemplo, la creación de mejores prácticas voluntarias por parte de la industria, el mundo académico, la sociedad civil y el gobierno), y regulación dura (por ejemplo, la transferencia de estas mejores prácticas a normas y legislación)».

Grace propone otra idea: Podríamos alterar el sistema de publicación para reducir la difusión de la investigación en algunos casos. Una revista podría verificar los resultados de la investigación y publicar el hecho de su publicación sin revelar ningún detalle que pudiera ayudar a otros laboratorios a ir más rápido.

Esta idea puede sonar bonita, pero al menos una importante empresa de IA da por sentado que será necesario cambiar las normas de publicación. Las notas del estatuto de OpenAI, «esperamos que las preocupaciones de seguridad y protección reduzcan nuestra publicación tradicional en el futuro».

Además, este tipo de cosas ya se han hecho antes. Considere cómo Leo Szilard, el físico que patentó la reacción nuclear en cadena en 1934, se las arregló para mitigar la difusión de la investigación para que no ayudara a la Alemania nazi a crear armas nucleares. Primero pidió a la Oficina de Guerra británica que mantuviera su patente en secreto. Después, tras el descubrimiento de la fisión en 1938, Szilard trabajó para convencer a otros científicos de que mantuvieran sus descubrimientos en secreto. Tuvo éxito en parte, hasta que el temor a que la Alemania nazi desarrollara una bomba atómica llevó a Szilard a escribir una carta con Albert Einstein al Presidente Franklin D. Roosevelt, instándole a poner en marcha un programa nuclear estadounidense. Esto se convirtió en el Proyecto Manhattan, que terminó con la destrucción de Hiroshima y Nagasaki y el comienzo de la era nuclear.

Y eso nos lleva a la segunda objeción…

Objeción 2: «No queremos perder una carrera armamentística de IA con China»

Puede que creas que frenar una nueva tecnología es posible, pero sigues pensando que no es deseable. Tal vez pienses que Estados Unidos haría una tontería si frenara el progreso de la IA porque eso podría significar perder una carrera armamentística con China.

Esta narrativa de la carrera armamentística se ha hecho increíblemente popular. Si hubieras buscado en Google la frase «carrera armamentística de la IA» antes de 2016, habrías obtenido menos de 300 resultados. Inténtelo ahora y obtendrá alrededor de 248.000 resultados. Los CEO de las grandes tecnológicas y los políticos argumentan habitualmente que China pronto superará a Estados Unidos en lo que respecta a los avances de la IA, y que esos avances deberían provocar un «momento Sputnik» para los estadounidenses.

Pero esta narrativa es demasiado simplista. Para empezar, hay que recordar que la IA no es una cosa con un único propósito, como la bomba atómica. Es una tecnología mucho más general, como la electricidad.

«El problema de la idea de una carrera es que implica que lo único que importa es quién lleva una nariz de ventaja cuando cruza la línea de meta», afirma Helen Toner, directora del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown. «Ese no es el caso de la IA, ya que estamos hablando de una enorme gama de tecnologías diferentes que podrían aplicarse de todas las formas posibles».

Como Toner ha argumentado en otro lugar, «es un poco extraño decir: ‘Oh, ¿quién va a conseguir primero la IA? ¿Quién va a tener primero la electricidad?» Parece más bien «¿Quién va a utilizarla de qué manera y quién va a ser capaz de desplegarla y generalizar su uso?».

Jeffrey Ding, profesor de Ciencias Políticas en Georgetown, me dijo que China ha mostrado interés en regular la IA en algunos aspectos, aunque los estadounidenses no parecen prestarle mucha atención. «El coco de una China que avanzará sin ninguna regulación podría ser una concepción errónea», dijo.

De hecho, añadió, «China podría adoptar un enfoque aún más lento [que EE.UU.] en el desarrollo de la IA, sólo porque el gobierno está tan preocupado por tener una tecnología segura y controlable.» Una tecnología impredecible como ChatGPT, por ejemplo, podría ser una pesadilla para el Partido Comunista Chino, al que le gusta mantener a raya los debates sobre temas políticamente delicados.

Sin embargo, dado lo entrelazados que están los sectores militar y tecnológico de China, mucha gente sigue percibiendo que se está produciendo una clásica carrera armamentística. En la misma reunión entre ejecutivos de Microsoft y periodistas, días después del lanzamiento del nuevo Bing, pregunté si Estados Unidos debería ralentizar el progreso de la IA. Me respondieron que no podemos permitírnoslo porque estamos en una carrera de dos caballos entre Estados Unidos y China.

«La primera pregunta que debería hacerse la gente en EE.UU. es: si EE.UU. se ralentiza, ¿creemos que China también lo hará?», dijo el alto ejecutivo de Microsoft. «No creo ni por un momento que las instituciones con las que competimos en China vayan a ralentizarse simplemente porque nosotros hayamos decidido avanzar más despacio. Esto debería considerarse del mismo modo que se consideró la competencia con Rusia» durante la Guerra Fría.

Se trata de una preocupación comprensible: Dado el autoritarismo del Partido Comunista Chino y sus terribles violaciones de los derechos humanos –en ocasiones facilitadas por tecnologías de IA como el reconocimiento facial-, tiene sentido que a muchos les preocupe que China se convierta en la superpotencia dominante del mundo al ir más rápido en lo que está a punto de convertirse en una tecnología verdaderamente transformadora.

Pero incluso si crees que tu país tiene mejores valores y se preocupa más por la seguridad, e incluso si crees que hay una clásica carrera armamentística en marcha y China va a toda velocidad, puede que no te interese ir más rápido a expensas de la seguridad.

Piense que si dedica tiempo a resolver algunos problemas de seguridad, es posible que la otra parte asuma esas mejoras, lo que beneficiaría a todos.

«Persiguiendo agresivamente la seguridad, puedes conseguir que la otra parte se acerque a la seguridad total, lo que vale mucho más que la posibilidad perdida de ganar», escribe Grace. «Sobre todo porque si ‘ganas’, lo haces sin mucha seguridad, y tu victoria sin seguridad es peor que la victoria de tu oponente con seguridad».

Además, si estás en una carrera armamentística clásica y los daños de la IA son tan grandes que te planteas frenar, entonces el mismo razonamiento debería ser relevante también para la otra parte.

«Si el mundo estuviera en la situación básica de carrera armamentística que a veces se imagina, y Estados Unidos estuviera dispuesto a hacer leyes para mitigar el riesgo de la IA pero no pudiera porque China se adelantaría, entonces eso significa que China está en una situación ideal para mitigar el riesgo de la IA», escribe Grace. «A diferencia de Estados Unidos, China podría proponer una ralentización mutua, y Estados Unidos estaría de acuerdo. Quizá no sea imposible comunicar esto a las personas relevantes en China».

El argumento de Grace no es que la coordinación internacional sea fácil, sino simplemente que es posible; en conjunto, lo hemos conseguido mucho mejor con la no proliferación nuclear de lo que muchos temían en los primeros días de la era atómica. Así que no deberíamos descartar tan rápidamente la creación de consenso, ya sea a través del intercambio de opiniones entre expertos técnicos, de medidas diplomáticas de creación de confianza o de tratados formales. Después de todo, los tecnólogos suelen abordar los problemas técnicos de la IA con una ambición increíble; ¿por qué no ser igual de ambiciosos a la hora de resolver problemas humanos hablando con otros humanos?

Para quienes se muestren pesimistas respecto a la posibilidad de que la coordinación o la diplomacia con China puedan conseguir que frene voluntariamente, existe otra posibilidad: obligarla a frenar, por ejemplo, imponiendo controles a la exportación de chips que son clave para las herramientas de IA más avanzadas. La administración Biden ha mostrado recientemente su interés en intentar frenar a China en su avance de la IA exactamente de esta manera. Sin embargo, esta estrategia puede dificultar los avances en materia de coordinación o diplomacia.

Objeción 3: «Necesitamos jugar con la IA avanzada para averiguar cómo hacer que la IA avanzada sea segura»

Esta es una objeción que a veces se oye de personas que desarrollan las capacidades de la IA, incluso de aquellos que dicen preocuparse mucho por mantener la seguridad de la IA.

Establecen una analogía con el transporte. Cuando nuestro principal medio de transporte eran los caballos y los carros, ¿habríamos sido capaces de diseñar normas de seguridad útiles para un futuro en el que todo el mundo condujera coches? No, porque no podrían haber previsto cómo sería. Del mismo modo, tenemos que acercarnos más a la IA avanzada para poder averiguar cómo podemos hacerla segura.

Pero algunos investigadores se han opuesto a esto, señalando que incluso si la gente del caballo y el carro no hubiera acertado en todo, aún podrían haber aportado algunas ideas útiles. Como Rosie Campbell, que trabaja en seguridad en OpenAI, dijo en 2018: «Parece plausible que podrían haber sido capaces de inventar ciertas características como cinturones de seguridad, carreteras libres de peatones, un acuerdo sobre en qué lado de la carretera conducir y algún tipo de sistema de señales de giro en intersecciones concurridas.»

Más concretamente, estamos en 2023 y ya tenemos una IA bastante avanzada. No estamos exactamente en la fase de los coches de caballos. Estamos en algún lugar entre eso y un Tesla.

«Habría sido más comprensivo con esta [objeción] hace 10 años, cuando no teníamos nada que se pareciera al tipo de cosas generales, flexibles, interesantes y extrañas que vemos hoy con nuestros grandes modelos lingüísticos», dice Cotra.

Grace está de acuerdo. «No es que nos hayamos quedado sin nada en lo que pensar», me dijo. «Tenemos montones de investigaciones que se podrían hacer sobre lo que ocurre con estos sistemas. ¿Qué ocurre en su interior?».

Nuestros sistemas actuales ya son cajas negras, opacas incluso para los expertos en IA que los construyen. Así que quizá deberíamos intentar averiguar cómo funcionan antes de construir cajas negras aún más inexplicables.

Cómo aplanar la curva del progreso de la IA

«Creo que a menudo la gente se pregunta cuándo se producirá la IA transformadora, pero deberían plantearse al menos la pregunta de con qué rapidez y de repente ocurrirá», me dijo Cotra.

Digamos que pasarán 20 años hasta que consigamos una IA transformadora, es decir, una IA capaz de automatizar todo el trabajo humano necesario para impulsar la ciencia, la tecnología y la economía. Aún hay caminos mejores y peores para ello. Imaginemos tres escenarios diferentes para el progreso de la IA:

  • Tendremos un enorme repunte en los próximos dos años, a partir de ahora.
  • Ponemos en pausa por completo todas las capacidades de IA a partir de ahora, luego las desbloqueamos en 18 años y obtenemos un enorme repunte en los dos años siguientes.
  • Mejoramos gradualmente a lo largo de 20 años.

La primera versión da miedo por todas las razones que hemos comentado antes. La segunda da miedo porque, incluso durante una larga pausa en el trabajo específico de la IA, la potencia de cálculo subyacente seguiría mejorando, de modo que cuando finalmente se desbloquee, la IA podría avanzar incluso más rápido de lo que avanza ahora. ¿En qué nos deja esto?

«Mejorar gradualmente sería la mejor versión», afirma Cotra.

Lo comparó con los primeros consejos que recibimos sobre la pandemia del virus Covid-19: «Hay que aplanar la curva: Aplanar la curva. Del mismo modo que la cuarentena ayudó a ralentizar la propagación del virus y a evitar un repunte brusco de casos que podría haber desbordado la capacidad de los hospitales, invertir más en seguridad ralentizaría el desarrollo de la IA y evitaría un repunte brusco del progreso que podría desbordar la capacidad de adaptación de la sociedad.

Ding cree que ralentizar el progreso de la IA a corto plazo es en realidad lo mejor para todos, incluso para los especuladores. «Si eres una empresa tecnológica, si eres un responsable político, si eres alguien que quiere que su país se beneficie al máximo de la IA, invertir en normas de seguridad podría conducir a una menor reacción pública y a un desarrollo más sostenible a largo plazo de estas tecnologías», explicó. «Así que cuando enmarco las inversiones en seguridad, intento enmarcarlas como los beneficios económicos sostenibles a largo plazo que vas a obtener si inviertes más en seguridad».

Traducción: Es mejor ganar algo de dinero ahora con una IA que mejora lentamente, sabiendo que seguirás desarrollando tu tecnología y obteniendo beneficios durante mucho tiempo, que hacerte obscenamente rico obscenamente rápido pero producir algún percance horrible que desencadene un montón de indignación y te obligue a parar por completo.

Pero, ¿lo entenderá el mundo de la tecnología? Eso depende en parte de cómo reaccionemos nosotros, el público, ante los nuevos y brillantes avances de la IA, desde ChatGPT y Bing hasta lo que venga después.

Es muy fácil dejarse seducir por estas tecnologías. Parecen mágicas. Tú pides algo y el oráculo responde. Hay un impulso natural de «ooh y aah». Pero al ritmo al que van las cosas, puede que nos estemos abriendo camino hacia un futuro que nadie quiere.

Original

Acerca de

Chileno. Tecnólogo Médico,. #MangaLover #AnimeLover Nerd, Geek y orgulloso integrante del Partido Pirata de Chile Ⓟ @dormeno@chilemasto.casa

Publicado en Random

Introduce tu dirección de correo electrónico para seguir este Blog y recibir las notificaciones de las nuevas publicaciones en tu buzón de correo electrónico.

Únete a otros 131 suscriptores
Follow Arcanus's Random Stuffs on WordPress.com
Sígueme