banner
Centro de Noticias
Nuestra cartera de productos y servicios abarca una gama de opciones excepcionales para usted.

Por qué la IA salvará el mundo

May 25, 2023

La era de la Inteligencia Artificial está aquí, y vaya que la gente se está volviendo loca.

Afortunadamente, estoy aquí para traer buenas noticias: la IA no destruirá el mundo y, de hecho, puede salvarlo.

Primero, una breve descripción de lo que es la IA: la aplicación de las matemáticas y el código de software para enseñar a las computadoras a comprender, sintetizar y generar conocimiento de manera similar a como lo hace la gente. La IA es un programa de computadora como cualquier otro: se ejecuta, recibe información, procesa y genera resultados. La producción de AI es útil en una amplia gama de campos, desde la codificación hasta la medicina, el derecho y las artes creativas. Es propiedad de personas y está controlada por personas, como cualquier otra tecnología.

Una descripción más breve de lo que la IA no es: software asesino y robots que cobrarán vida y decidirán asesinar a la raza humana o arruinar todo, como se ve en las películas.

Una descripción aún más breve de lo que podría ser la IA: una forma de mejorar todo lo que nos importa.

La conclusión central más validada de las ciencias sociales a lo largo de muchas décadas y miles de estudios es que la inteligencia humana mejora una amplia gama de resultados de la vida. Las personas más inteligentes tienen mejores resultados en casi todos los dominios de actividad: logros académicos, desempeño laboral, estatus ocupacional, ingresos, creatividad, salud física, longevidad, aprendizaje de nuevas habilidades, gestión de tareas complejas, liderazgo, éxito empresarial, resolución de conflictos, comprensión de lectura, finanzas. toma de decisiones, comprensión de las perspectivas de los demás, artes creativas, resultados de crianza y satisfacción con la vida.

Además, la inteligencia humana es la palanca que hemos utilizado durante milenios para crear el mundo en el que vivimos hoy: ciencia, tecnología, matemáticas, física, química, medicina, energía, construcción, transporte, comunicación, arte, música, cultura, filosofía, ética, moralidad. Sin la aplicación de la inteligencia en todos estos dominios, todos seguiríamos viviendo en chozas de barro, rascando una exigua existencia de agricultura de subsistencia. En su lugar, hemos utilizado nuestra inteligencia para elevar nuestro nivel de vida en el orden de 10.000 veces durante los últimos 4.000 años.

Lo que la IA nos ofrece es la oportunidad de aumentar profundamente la inteligencia humana para hacer que todos estos resultados de la inteligencia, y muchos otros, desde la creación de nuevos medicamentos hasta formas de resolver el cambio climático y tecnologías para alcanzar las estrellas, sean mucho, mucho mejores desde aquí. .

El aumento de IA de la inteligencia humana ya ha comenzado: la IA ya está a nuestro alrededor en forma de sistemas de control informático de muchos tipos, ahora está escalando rápidamente con modelos de lenguaje grande de IA como ChatGPT, y se acelerará muy rápidamente a partir de aquí, si lo permitimos.

En nuestra nueva era de IA:

Las apuestas aquí son altas. Las oportunidades son profundas. La IA es posiblemente lo más importante, y lo mejor, que nuestra civilización haya creado, ciertamente a la par de la electricidad y los microchips, y probablemente más allá de eso.

El desarrollo y la proliferación de la IA, lejos de ser un riesgo que debamos temer, es una obligación moral que tenemos con nosotros mismos, con nuestros hijos y con nuestro futuro.

Deberíamos estar viviendo en un mundo mucho mejor con IA, y ahora podemos.

En contraste con esta visión positiva, la conversación pública sobre la IA actualmente está plagada de miedo histérico y paranoia.

Escuchamos afirmaciones de que la IA nos matará a todos, arruinará nuestra sociedad, nos quitará todos los trabajos, causará una desigualdad paralizante y permitirá que las personas malas hagan cosas horribles.

¿Qué explica esta divergencia en los resultados potenciales de una utopía cercana a una distopía horrible?

Históricamente, cada nueva tecnología importante, desde la iluminación eléctrica hasta los automóviles, la radio e Internet, ha provocado un pánico moral, un contagio social que convence a la gente de que la nueva tecnología va a destruir el mundo, la sociedad o ambos. La buena gente de Pessimists Archive ha documentado estos pánicos morales impulsados ​​por la tecnología durante décadas; su historia hace que el patrón sea vívidamente claro. Resulta que este pánico actual ni siquiera es el primero para la IA.

Ahora bien, es cierto que muchas tecnologías nuevas han dado lugar a malos resultados, a menudo las mismas tecnologías que han sido enormemente beneficiosas para nuestro bienestar. Así que no es que la mera existencia de un pánico moral signifique que no hay nada de qué preocuparse.

Pero un pánico moral es por su propia naturaleza irracional: toma lo que puede ser una preocupación legítima y la infla hasta un nivel de histeria que, irónicamente, hace que sea más difícil enfrentar preocupaciones realmente serias.

Y wow, tenemos un pánico moral en toda regla sobre la IA en este momento.

Este pánico moral ya está siendo utilizado como una fuerza motivadora por una variedad de actores para exigir acciones políticas: nuevas restricciones, regulaciones y leyes de IA. Estos actores, que están haciendo declaraciones públicas extremadamente dramáticas sobre los peligros de la IA, alimentándose e inflamando aún más el pánico moral, se presentan a sí mismos como campeones desinteresados ​​del bien público.

¿Pero lo son?

¿Y están bien o mal?

Los economistas han observado un patrón de larga data en los movimientos de reforma de este tipo. Los actores dentro de movimientos como estos se dividen en dos categorías: "bautistas" y "contrabandistas", basándose en el ejemplo histórico de la prohibición del alcohol en los Estados Unidos en la década de 1920:

Un cínico sugeriría que algunos de los bautistas aparentes también son contrabandistas, específicamente los que sus universidades, grupos de expertos, grupos activistas y medios de comunicación pagan para atacar a AI. Si le pagan un salario o recibe subvenciones para fomentar el pánico de la IA... es probable que sea un contrabandista.

El problema de los Bootleggers es que ellos ganan. Los bautistas son ideólogos ingenuos, los contrabandistas son operadores cínicos, por lo que el resultado de movimientos de reforma como estos es a menudo que los contrabandistas obtienen lo que quieren: captura regulatoria, aislamiento de la competencia, la formación de un cartel, y los bautistas se quedan preguntándose donde su impulso por la mejora social salió tan mal.

Acabamos de vivir un ejemplo sorprendente de esto: la reforma bancaria después de la crisis financiera mundial de 2008. Los bautistas nos dijeron que necesitábamos nuevas leyes y reglamentos para desmantelar los bancos "demasiado grandes para quebrar" para evitar que una crisis como esa volviera a ocurrir. Así que el Congreso aprobó la Ley Dodd-Frank de 2010, que se comercializó como que satisfacía el objetivo de los bautistas, pero en realidad fue cooptada por los contrabandistas, los grandes bancos. El resultado es que los mismos bancos que eran "demasiado grandes para quebrar" en 2008 son mucho, mucho más grandes ahora.

Entonces, en la práctica, incluso cuando los bautistas son genuinos, e incluso cuando los bautistas tienen razón, son utilizados como tapadera por contrabandistas manipuladores y venales para beneficiarse a sí mismos.

Y esto es lo que está sucediendo en el impulso por la regulación de la IA en este momento.

Sin embargo, no es suficiente simplemente identificar a los actores e impugnar sus motivos. Deberíamos considerar los argumentos tanto de los Bautistas como de los Contrabandistas en sus méritos.

El primer y original riesgo del Doomer de la IA es que la IA decidirá literalmente matar a la humanidad.

El temor de que la tecnología de nuestra propia creación surja y nos destruya está profundamente codificado en nuestra cultura. Los griegos expresaron este miedo en el Mito de Prometeo: Prometeo trajo el poder destructivo del fuego y, en general, la tecnología ("techne") al hombre, por lo que Prometeo fue condenado a tortura perpetua por los dioses. Más tarde, Mary Shelley nos dio a los modernos nuestra propia versión de este mito en su novela Frankenstein, o The Modern Prometheus, en la que desarrollamos la tecnología para la vida eterna, que luego se levanta y busca destruirnos. Y, por supuesto, ninguna historia periodística sobre el pánico de la IA está completa sin una imagen fija de un robot asesino de ojos rojos y reluciente de las películas Terminator de James Cameron.

El presunto propósito evolutivo de esta mitología es motivarnos a considerar seriamente los riesgos potenciales de las nuevas tecnologías; después de todo, el fuego puede usarse para incendiar ciudades enteras. Pero así como el fuego también fue la base de la civilización moderna que se usa para mantenernos calientes y seguros en un mundo frío y hostil, esta mitología ignora la ventaja mucho mayor de la mayoría, ¿todos? – nuevas tecnologías, y en la práctica inflama la emoción destructiva más que el análisis razonado. El hecho de que el hombre premoderno se asustara así no significa que tengamos que hacerlo; podemos aplicar la racionalidad en su lugar.

Mi opinión es que la idea de que la IA decidirá literalmente matar a la humanidad es un profundo error de categoría. La IA no es un ser vivo preparado por miles de millones de años de evolución para participar en la batalla por la supervivencia del más apto, como lo son los animales y como nosotros. Es matemática, código, computadoras, construidas por personas, propiedad de personas, utilizadas por personas, controladas por personas. La idea de que en algún momento desarrollará una mente propia y decidirá que tiene motivaciones que lo llevan a tratar de matarnos es un gesto supersticioso.

En resumen, la IA no quiere, no tiene objetivos, no quiere matarte, porque no está viva. Y la IA es una máquina: no cobrará vida más de lo que lo hará su tostadora.

Ahora, obviamente, hay verdaderos creyentes en la IA asesina, los bautistas, que están ganando una cantidad repentinamente estratosférica de cobertura mediática por sus aterradoras advertencias, algunos de los cuales afirman haber estado estudiando el tema durante décadas y dicen que ahora están asustados. mentes por lo que han aprendido. Algunos de estos verdaderos creyentes son incluso innovadores reales de la tecnología. Estos actores abogan por una variedad de restricciones extrañas y extremas sobre la IA que van desde la prohibición del desarrollo de la IA hasta los ataques aéreos militares en los centros de datos y la guerra nuclear. Argumentan que debido a que las personas como yo no pueden descartar futuras consecuencias catastróficas de la IA, debemos asumir una postura de precaución que puede requerir grandes cantidades de violencia física y muerte para prevenir un posible riesgo existencial.

Mi respuesta es que su posición no es científica. ¿Cuál es la hipótesis comprobable? ¿Qué falsearía la hipótesis? ¿Cómo sabemos cuándo nos estamos metiendo en una zona de peligro? La mayoría de estas preguntas quedan sin respuesta, aparte de "¡No puedes probar que no sucederá!" De hecho, la posición de estos bautistas es tan poco científica y tan extrema (una teoría de la conspiración sobre las matemáticas y el código) y ya está llamando a la violencia física, que haré algo que normalmente no haría y también cuestionaré sus motivos.

Específicamente, creo que están sucediendo tres cosas:

En primer lugar, recuerde que John Von Neumann respondió al famoso retorcimiento de manos de Robert Oppenheimer sobre su papel en la creación de armas nucleares, que ayudó a terminar la Segunda Guerra Mundial y evitar la Tercera Guerra Mundial, con: "Algunas personas confiesan su culpabilidad para reclamar el crédito por el pecado". ¿Cuál es la forma más dramática en que uno puede reclamar el crédito por la importancia de su trabajo sin sonar abiertamente jactancioso? Esto explica el desajuste entre las palabras y las acciones de los bautistas que en realidad están construyendo y financiando la IA: observe sus acciones, no sus palabras. (Truman fue más duro después de reunirse con Oppenheimer: "No dejes que ese llorón vuelva a entrar aquí").

En segundo lugar, algunos de los bautistas son en realidad contrabandistas. Existe toda una profesión de "experto en seguridad de IA", "eticista de IA", "investigador de riesgos de IA". Se les paga para ser condenados y sus declaraciones deben procesarse adecuadamente.

Tercero, California es justificadamente famosa por nuestros muchos miles de cultos, desde EST hasta el Templo de los Pueblos, desde Heaven's Gate hasta la Familia Manson. Muchos, aunque no todos, de estos cultos son inofensivos, y tal vez incluso tengan un propósito para las personas alienadas que encuentran un hogar en ellos. Pero algunos son realmente muy peligrosos, y las sectas tienen mucha dificultad para cruzar la línea que finalmente conduce a la violencia y la muerte.

Y la realidad, que es obvia para todos en el Área de la Bahía pero probablemente no fuera de ella, es que el "riesgo de la IA" se ha convertido en un culto, que de repente ha surgido a la luz de la atención de la prensa mundial y la conversación pública. Este culto ha atraído no solo a personajes marginales, sino también a algunos expertos reales de la industria y a un número no pequeño de donantes adinerados, incluido, hasta hace poco, Sam Bankman-Fried. Y ha desarrollado una panoplia completa de comportamientos y creencias de culto.

Este culto es la razón por la que hay un grupo de condenados al riesgo de IA que suenan tan extremos: no es que realmente tengan un conocimiento secreto que hace que su extremismo sea lógico, es que se han vuelto frenéticos y realmente son... extremadamente extremos.

Resulta que este tipo de culto no es nuevo: existe una larga tradición occidental de milenarismo, que genera cultos apocalípticos. El culto al riesgo de la IA tiene todas las características de un culto del apocalipsis milenario. De Wikipedia, con adiciones mías:

"El milenarismo es la creencia de un grupo o movimiento [los condenados al riesgo de la IA] en una próxima transformación fundamental de la sociedad [la llegada de la IA], después de la cual todas las cosas cambiarán [la utopía, la distopía y/o el fin del mundo de la IA] Solo los eventos dramáticos [prohibiciones de IA, ataques aéreos en centros de datos, ataques nucleares en IA no regulada] se consideran capaces de cambiar el mundo [prevenir la IA] y se anticipa que el cambio lo provocará, o sobrevivirá, un grupo de devotos y En la mayoría de los escenarios milenarios, el desastre o la batalla por venir [apocalipsis de IA, o su prevención] será seguido por un mundo nuevo y purificado [prohibiciones de IA] en el que los creyentes serán recompensados ​​[o al menos reconocidos por haber estado en lo correcto todo el tiempo]."

Este patrón de culto del apocalipsis es tan obvio que me sorprende que más personas no lo vean.

No me malinterpreten, es divertido escuchar sobre las sectas, su material escrito suele ser creativo y fascinante, y sus miembros participan en cenas y programas de televisión. Pero sus creencias extremas no deberían determinar el futuro de las leyes y la sociedad, obviamente no.

El segundo riesgo ampliamente debatido de la IA es que la IA arruinará nuestra sociedad, al generar resultados que serán tan "dañinos", para usar la nomenclatura de este tipo de fatalidad, que causarán un daño profundo a la humanidad, incluso si no estamos literalmente delicado.

Versión corta: si los robots asesinos no nos atrapan, lo harán el discurso de odio y la desinformación.

Esta es una preocupación de doomer relativamente reciente que se separó y de alguna manera se hizo cargo del movimiento de "riesgo de IA" que describí anteriormente. De hecho, la terminología del riesgo de la IA cambió recientemente de "seguridad de la IA", el término utilizado por las personas preocupadas de que la IA literalmente nos mate, a "alineación de la IA", el término utilizado por las personas preocupadas por los "daños" sociales. . El personal de seguridad de la IA original está frustrado por este cambio, aunque no saben cómo volver a colocarlo en la caja; ahora abogan por que el tema de riesgo real de la IA pase a llamarse "IA no matar a todos", que aún no se ha adoptado ampliamente, pero es al menos claro.

El indicio de la naturaleza del reclamo de riesgo social de la IA es su propio término, "alineación de la IA". ¿Alineación con qué? Valores humanos. ¿Los valores humanos de quién? Ah, ahí es donde las cosas se ponen complicadas.

Da la casualidad de que he tenido un asiento de primera fila en una situación análoga: las guerras de "confianza y seguridad" de las redes sociales. Como ahora es obvio, los servicios de redes sociales han estado bajo una presión masiva de gobiernos y activistas para prohibir, restringir, censurar y suprimir una amplia gama de contenido durante muchos años. Y las mismas preocupaciones sobre el "discurso de odio" (y su equivalente matemático, el "sesgo algorítmico") y la "desinformación" se están transfiriendo directamente del contexto de las redes sociales a la nueva frontera de la "alineación de la IA".

Mis grandes aprendizajes de las guerras de las redes sociales son:

Por un lado, no existe una posición absolutista de libertad de expresión. En primer lugar, todos los países, incluido Estados Unidos, ilegalizan al menos una parte del contenido. En segundo lugar, hay ciertos tipos de contenido, como la pornografía infantil y las incitaciones a la violencia en el mundo real, que prácticamente todas las sociedades aceptan que están prohibidos, sean legales o no. Entonces cualquier plataforma tecnológica que facilite o genere contenido –discurso– va a tener algunas restricciones.

Por otro lado, la pendiente resbaladiza no es una falacia, es inevitable. Una vez que se establece un marco para restringir incluso el contenido terriblemente terrible, por ejemplo, para el discurso de odio, una palabra hiriente específica o para la desinformación, afirmaciones obviamente falsas como "el Papa está muerto", una gama sorprendentemente amplia de agencias gubernamentales y presión activista grupos y entidades no gubernamentales se pondrán en marcha y exigirán niveles cada vez mayores de censura y supresión de cualquier discurso que consideren amenazante para la sociedad y/o sus propias preferencias personales. Harán esto hasta e incluso en formas que son delitos graves flagrantes. En la práctica, este ciclo puede durar aparentemente para siempre, con el apoyo entusiasta de monitores de pasillo autoritarios instalados en todas nuestras estructuras de poder de élite. Esto ha estado cayendo en cascada durante una década en las redes sociales y, con solo ciertas excepciones, continúa volviéndose más ferviente todo el tiempo.

Y esta es la dinámica que se ha formado ahora en torno a la "alineación de la IA". Sus defensores reclaman la sabiduría para diseñar discursos y pensamientos generados por IA que son buenos para la sociedad, y para prohibir los discursos y pensamientos generados por IA que son malos para la sociedad. Sus opositores afirman que la policía del pensamiento es asombrosamente arrogante y presuntuosa, y a menudo abiertamente criminal, al menos en los EE. 1984 de George Orwell.

Dado que los defensores de la "confianza y la seguridad" y la "alineación de la IA" se agrupan en la porción muy estrecha de la población mundial que caracteriza a las élites costeras estadounidenses, que incluye a muchas de las personas que trabajan y escriben sobre la industria tecnológica, muchos de mis lectores se encontrarán preparados para argumentar que se requieren restricciones drásticas en la producción de IA para evitar la destrucción de la sociedad. No intentaré disuadirte de esto ahora, simplemente diré que esta es la naturaleza de la demanda, y que la mayoría de las personas en el mundo no están de acuerdo con tu ideología ni quieren verte ganar.

Si no está de acuerdo con la moralidad de nicho predominante que se impone tanto en las redes sociales como en la IA a través de códigos de voz cada vez más intensos, también debe darse cuenta de que la lucha por lo que la IA puede decir/generar será aún más importante: por mucho, que la lucha por la censura en las redes sociales. Es muy probable que la IA sea la capa de control para todo en el mundo. La forma en que se le permite operar va a importar quizás más que cualquier otra cosa que haya importado jamás. Debe ser consciente de cómo un grupo pequeño y aislado de ingenieros sociales partidistas está tratando de determinar eso en este momento, al amparo de la antigua afirmación de que lo están protegiendo.

En resumen, no permita que la policía del pensamiento suprima la IA.

El miedo a perder el trabajo debido a la mecanización, la automatización, la informatización o la IA ha sido un pánico recurrente durante cientos de años, desde la aparición original de maquinaria como el telar mecánico. A pesar de que cada nueva tecnología importante ha generado más empleos con salarios más altos a lo largo de la historia, cada ola de este pánico va acompañada de afirmaciones de que "esta vez es diferente": este es el momento en que finalmente sucederá, esta es la tecnología que finalmente dar el golpe de martillo al trabajo humano. Y, sin embargo, nunca sucede.

Hemos pasado por dos ciclos de pánico de desempleo impulsados ​​por la tecnología en nuestro pasado reciente: el pánico de la subcontratación de la década de 2000 y el pánico de la automatización de la década de 2010. A pesar de que muchas cabezas parlantes, expertos e incluso ejecutivos de la industria de la tecnología golpearon la mesa durante ambas décadas de que el desempleo masivo estaba cerca, a fines de 2019, justo antes del inicio de COVID, el mundo tenía más trabajos con salarios más altos que nunca en la historia.

Sin embargo, esta idea equivocada no morirá.

Y por supuesto, ha vuelto.

Esta vez, finalmente tenemos la tecnología que se hará cargo de todos los trabajos y hará que los trabajadores humanos sean superfluos: la IA real. Seguramente esta vez la historia no se repetirá, y la IA causará desempleo masivo, y no un rápido crecimiento económico, laboral y salarial, ¿verdad?

No, eso no va a suceder, y de hecho, si se permite que la IA se desarrolle y prolifere en toda la economía, puede causar el auge económico más dramático y sostenido de todos los tiempos, con el consiguiente crecimiento récord de empleos y salarios: exactamente lo contrario del miedo. . Y he aquí por qué.

El error central que siguen cometiendo los condenados a muerte por automatización se llama falacia de la masa de trabajo. Esta falacia es la noción incorrecta de que hay una cantidad fija de trabajo por hacer en la economía en un momento dado, y que las máquinas lo hacen o las personas lo hacen, y si las máquinas lo hacen, no habrá trabajo para que lo haga la gente. .

La falacia de Lump Of Labor fluye naturalmente de la intuición ingenua, pero la intuición ingenua aquí está equivocada. Cuando la tecnología se aplica a la producción, obtenemos un crecimiento de la productividad: un aumento en la producción generado por una reducción en los insumos. El resultado es precios más bajos para bienes y servicios. A medida que caen los precios de los bienes y servicios, pagamos menos por ellos, lo que significa que ahora tenemos un poder adquisitivo adicional para comprar otras cosas. Esto aumenta la demanda en la economía, lo que impulsa la creación de nueva producción, incluidos nuevos productos y nuevas industrias, que luego crea nuevos puestos de trabajo para las personas que fueron reemplazadas por máquinas en trabajos anteriores. El resultado es una economía más grande con mayor prosperidad material, más industrias, más productos y más empleos.

Pero las buenas noticias no se detienen ahí. También obtenemos salarios más altos. Esto se debe a que, a nivel del trabajador individual, el mercado establece la compensación en función de la productividad marginal del trabajador. Un trabajador en un negocio infundido con tecnología será más productivo que un trabajador en un negocio tradicional. El empleador le pagará más dinero a ese trabajador ya que ahora es más productivo, o lo hará otro empleador, simplemente por interés propio. El resultado es que la tecnología introducida en una industria generalmente no solo aumenta la cantidad de puestos de trabajo en la industria, sino que también aumenta los salarios.

En resumen, la tecnología permite a las personas ser más productivas. Esto hace que bajen los precios de los bienes y servicios existentes y que aumenten los salarios. Esto, a su vez, provoca el crecimiento económico y el crecimiento del empleo, al tiempo que motiva la creación de nuevos puestos de trabajo y nuevas industrias. Si se permite que una economía de mercado funcione normalmente y si se permite que la tecnología se introduzca libremente, este es un ciclo ascendente perpetuo que nunca termina. Porque, como observó Milton Friedman, "los deseos y necesidades humanos son infinitos": siempre queremos más de lo que tenemos. Una economía de mercado infundida con tecnología es la forma en que nos acercamos a ofrecer todo lo que todos podrían desear, pero nunca hasta el final. Y es por eso que la tecnología no destruye empleos y nunca lo hará.

Estas son ideas tan alucinantes para las personas que no han estado expuestas a ellas que puede llevarle algún tiempo entenderlas. Pero te juro que no me los estoy inventando; de hecho, puedes leer todo sobre ellos en los libros de texto de economía estándar. Recomiendo el capítulo The Curse of Machinery en Economics In One Lesson de Henry Hazlitt, y la satírica Candlemaker's Petition de Frederic Bastiat para tapar el sol debido a su competencia desleal con la industria de la iluminación, aquí modernizados para nuestros tiempos.

Pero esta vez es diferente, estás pensando. Esta vez, con IA, tenemos la tecnología que puede reemplazar TODO el trabajo humano.

Pero, utilizando los principios que describí anteriormente, piense en lo que significaría que, literalmente, todo el trabajo humano existente fuera reemplazado por máquinas.

Significaría una tasa de despegue del crecimiento de la productividad económica que sería absolutamente estratosférica, mucho más allá de cualquier precedente histórico. Los precios de los bienes y servicios existentes caerían prácticamente a cero. El bienestar del consumidor se dispararía. El poder adquisitivo del consumidor se dispararía. La nueva demanda en la economía explotaría. Los empresarios crearían vertiginosos conjuntos de nuevas industrias, productos y servicios, y emplearían a tantas personas e IA como pudieran lo más rápido posible para satisfacer toda la nueva demanda.

Supongamos que la IA reemplaza una vez más esa mano de obra. El ciclo se repetiría, impulsando aún más el bienestar del consumidor, el crecimiento económico y el crecimiento del empleo y los salarios. Sería una espiral recta hacia una utopía material con la que ni Adam Smith ni Karl Marx se atrevieron a soñar.

Deberíamos ser tan afortunados.

Hablando de Karl Marx, la preocupación de que la IA tome trabajos pasa directamente al siguiente riesgo de la IA, que es, está bien, Marc, supongamos que la IA toma todos los trabajos, ya sea para bien o para mal. ¿No dará como resultado una desigualdad de riqueza masiva y paralizante, ya que los propietarios de la IA obtienen todas las recompensas económicas y la gente común no obtiene nada?

Da la casualidad de que esta era una afirmación central del marxismo, que los propietarios de los medios de producción, la burguesía, inevitablemente robarían toda la riqueza social de las personas que hacen el trabajo real, el proletariado. Esta es otra falacia que simplemente no morirá sin importar cuántas veces sea refutada por la realidad. Pero clavémosle una estaca en el corazón de todos modos.

El defecto de esta teoría es que, como propietario de una pieza de tecnología, no le conviene quedársela para usted; de hecho, lo contrario, le conviene venderla a tantos clientes como sea posible. El mercado más grande del mundo para cualquier producto es el mundo entero, los 8 mil millones de nosotros. Y así, en realidad, cada nueva tecnología, incluso las que comienzan vendiendo al aire enrarecido de grandes empresas que pagan mucho o consumidores adinerados, prolifera rápidamente hasta que está en manos del mercado masivo más grande posible, en última instancia, todos en el planeta.

El ejemplo clásico de esto fue el llamado "plan secreto" de Elon Musk, que naturalmente publicó abiertamente, para Tesla en 2006:

Paso 1, construye un auto deportivo [caro]

Paso 2: use ese dinero para construir un automóvil asequible

Paso 3: use ese dinero para construir un automóvil aún más asequible

…que por supuesto es exactamente lo que ha hecho, convirtiéndose como resultado en el hombre más rico del mundo.

Ese último punto es clave. ¿Sería Elon aún más rico si solo vendiera autos a personas ricas hoy? No. ¿Sería incluso más rico que eso si solo hiciera autos para sí mismo? Por supuesto que no. No, maximiza su propio beneficio vendiendo al mercado más grande posible, el mundo.

En resumen, todo el mundo entiende la cosa, como vimos en el pasado, no solo con los automóviles, sino también con la electricidad, la radio, las computadoras, Internet, los teléfonos móviles y los motores de búsqueda. Los creadores de tales tecnologías están muy motivados para reducir sus precios hasta que todos en el planeta puedan pagarlos. Esto es precisamente lo que ya está sucediendo en la IA: es por eso que puede usar la IA generativa de última generación no solo a bajo costo sino incluso de forma gratuita hoy en forma de Microsoft Bing y Google Bard, y es lo que seguirá sucediendo. No porque estos vendedores sean tontos o generosos, sino precisamente porque son codiciosos: quieren maximizar el tamaño de su mercado, lo que maximiza sus ganancias.

Entonces, lo que sucede es lo contrario de la tecnología que impulsa la centralización de la riqueza: los clientes individuales de la tecnología, que en última instancia incluyen a todos en el planeta, están empoderados y capturan la mayor parte del valor generado. Al igual que con las tecnologías anteriores, las empresas que construyen IA, suponiendo que tengan que funcionar en un mercado libre, competirán furiosamente para que esto suceda.

Marx se equivocó entonces y se equivoca ahora.

Esto no quiere decir que la desigualdad no sea un problema en nuestra sociedad. Lo es, simplemente no está siendo impulsado por la tecnología, está siendo impulsado al revés, por los sectores de la economía que son más resistentes a las nuevas tecnologías, que tienen la mayor intervención gubernamental para evitar la adopción de nuevas tecnologías como la IA, específicamente vivienda, educación y salud. El riesgo real de la IA y la desigualdad no es que la IA provoque más desigualdad, sino que no permitiremos que la IA se utilice para reducir la desigualdad.

Hasta ahora he explicado por qué cuatro de los cinco riesgos de la IA propuestos con mayor frecuencia no son realmente reales: la IA no cobrará vida y nos matará, la IA no arruinará nuestra sociedad, la IA no causará desempleo masivo y la IA no causará un aumento ruinoso de la desigualdad. Pero ahora abordemos el quinto, con el que realmente estoy de acuerdo: la IA facilitará que las personas malas hagan cosas malas.

En cierto sentido, esto es una tautología. La tecnología es una herramienta. Las herramientas, comenzando con el fuego y las rocas, se pueden usar para hacer cosas buenas (cocinar y construir casas) y cosas malas (quemar personas y golpear a las personas). Cualquier tecnología puede ser utilizada para bien o para mal. Me parece bien. Y la IA facilitará que los criminales, los terroristas y los gobiernos hostiles hagan cosas malas, sin duda.

Esto hace que algunas personas propongan, bueno, en ese caso, no nos arriesguemos, prohibamos la IA ahora antes de que esto pueda suceder. Desafortunadamente, la IA no es un material físico esotérico difícil de conseguir, como el plutonio. Es todo lo contrario, es el material más fácil de conseguir del mundo: matemáticas y código.

El gato AI obviamente ya está fuera de la bolsa. Puede aprender a crear IA a partir de miles de cursos, libros, documentos y videos en línea gratuitos, y hay implementaciones de código abierto sobresalientes que proliferan día a día. La IA es como el aire: estará en todas partes. El nivel de opresión totalitaria que se requeriría para arrestar eso sería tan draconiano: ¿un gobierno mundial monitoreando y controlando todas las computadoras? ¿Matones con botas altas en helicópteros negros que se apoderan de GPU deshonestas? – que no nos quedaría una sociedad que proteger.

Entonces, en cambio, hay dos formas muy sencillas de abordar el riesgo de que las personas malas hagan cosas malas con la IA, y estas son precisamente en las que debemos centrarnos.

Primero, tenemos leyes en los libros para criminalizar la mayoría de las cosas malas que alguien va a hacer con la IA. ¿Hackear el Pentágono? Eso es un crimen. ¿Robar dinero de un banco? Eso es un crimen. ¿Crear un arma biológica? Eso es un crimen. ¿Cometer un acto terrorista? Eso es un crimen. Simplemente podemos concentrarnos en prevenir esos delitos cuando podamos y enjuiciarlos cuando no podamos. Ni siquiera necesitamos nuevas leyes. No tengo conocimiento de un solo mal uso real de la IA que se haya propuesto que no sea ilegal. Y si se identifica un nuevo mal uso, prohibimos ese uso. QED.

Pero notará lo que deslicé allí: dije que deberíamos centrarnos primero en prevenir los delitos asistidos por IA antes de que sucedan, ¿no significaría tal prevención prohibir la IA? Bueno, hay otra forma de prevenir este tipo de acciones, y es mediante el uso de la IA como herramienta defensiva. Las mismas capacidades que hacen que la IA sea peligrosa en manos de los malos con malos objetivos la hacen poderosa en manos de los buenos con buenos objetivos, específicamente los buenos cuyo trabajo es evitar que sucedan cosas malas.

Por ejemplo, si le preocupa que la IA genere personas falsas y videos falsos, la respuesta es crear nuevos sistemas donde las personas puedan verificarse a sí mismas y al contenido real a través de firmas criptográficas. La creación y alteración digital de contenido tanto real como falso ya estaba aquí antes que la IA; la respuesta no es prohibir los procesadores de texto y Photoshop, o la IA, sino usar la tecnología para construir un sistema que realmente resuelva el problema.

Entonces, en segundo lugar, realicemos grandes esfuerzos para usar la IA con fines buenos, legítimos y defensivos. Pongamos la IA a trabajar en la defensa cibernética, en la defensa biológica, en la caza de terroristas y en todo lo demás que hagamos para mantenernos seguros a nosotros mismos, a nuestras comunidades y a nuestra nación.

Ya hay muchas personas inteligentes dentro y fuera del gobierno que hacen exactamente esto, por supuesto, pero si aplicamos todo el esfuerzo y la capacidad intelectual que actualmente se obsesionan con la perspectiva inútil de prohibir la IA para usar la IA para protegerse contra las personas malas que hacen cosas malas, Creo que no hay duda de que un mundo infundido con IA será mucho más seguro que el mundo en el que vivimos hoy.

Existe un riesgo final y real de IA que probablemente sea el más aterrador:

La IA no solo se está desarrollando en las sociedades relativamente libres de Occidente, también la está desarrollando el Partido Comunista de la República Popular China.

China tiene una visión de la IA muy diferente a la nuestra: la ven como un mecanismo para el control autoritario de la población, punto final. Ni siquiera están guardando esto en secreto, lo tienen muy claro y ya están siguiendo su agenda. Y no tienen la intención de limitar su estrategia de inteligencia artificial a China: tienen la intención de proliferar en todo el mundo, en todos los lugares en los que alimentan redes 5G, en todos los lugares en los que prestan dinero de Belt And Road, en todos los lugares en los que ofrecen aplicaciones amigables para el consumidor como Tiktok que sirven como front-ends para su comando y control centralizado AI.

El mayor riesgo de la IA es que China gane el dominio mundial de la IA y nosotros, Estados Unidos y Occidente, no.

Propongo una estrategia simple sobre qué hacer al respecto; de hecho, la misma estrategia que usó el presidente Ronald Reagan para ganar la primera Guerra Fría con la Unión Soviética.

"Nosotros ganamos, ellos pierden".

En lugar de permitir que pánicos infundados en torno a la IA asesina, la IA "dañina", la IA que destruye empleos y la IA que genera desigualdad nos pongan de pie, nosotros en los Estados Unidos y Occidente deberíamos apoyarnos en la IA tanto como podamos. .

Deberíamos tratar de ganar la carrera hacia la superioridad tecnológica global de IA y asegurarnos de que China no lo haga.

En el proceso, debemos impulsar la IA en nuestra economía y sociedad lo más rápido y fuerte que podamos, para maximizar sus ganancias para la productividad económica y el potencial humano.

Esta es la mejor manera tanto de compensar los riesgos reales de la IA como de garantizar que nuestra forma de vida no se vea desplazada por la visión china mucho más oscura.

Propongo un plan sencillo:

Y así es como usamos la IA para salvar el mundo.

Es hora de construir.

Cierro con dos declaraciones simples.

El desarrollo de la IA comenzó en la década de 1940, simultáneamente con la invención de la computadora. El primer artículo científico sobre redes neuronales, la arquitectura de la IA que tenemos hoy, se publicó en 1943. Durante los últimos 80 años, generaciones enteras de científicos de IA nacieron, fueron a la escuela, trabajaron y, en muchos casos, fallecieron sin ver el recompensa que estamos recibiendo ahora. Son leyendas, todos.

Hoy en día, cada vez más legiones de ingenieros, muchos de los cuales son jóvenes y pueden haber tenido abuelos o incluso bisabuelos involucrados en la creación de las ideas detrás de la IA, están trabajando para hacer realidad la IA, contra un muro de alarmismo y doomerismo que está intentando pintarlos como villanos imprudentes. No creo que sean imprudentes o villanos. Son héroes, todos. Mi empresa y yo estamos encantados de respaldar a tantos de ellos como podamos, y estaremos junto a ellos y su trabajo al 100 %.

* * *

Las opiniones expresadas aquí son las del personal individual de AH Capital Management, LLC ("a16z") citado y no son las opiniones de a16z o sus afiliados. Cierta información contenida aquí se ha obtenido de fuentes de terceros, incluso de compañías de cartera de fondos administrados por a16z. Si bien se tomó de fuentes que se consideran confiables, a16z no ha verificado de forma independiente dicha información y no hace declaraciones sobre la precisión actual o duradera de la información o su idoneidad para una situación determinada. Además, este contenido puede incluir anuncios de terceros; a16z no ha revisado dichos anuncios y no respalda ningún contenido publicitario incluido en ellos.

Este contenido se proporciona solo con fines informativos y no debe considerarse como asesoramiento legal, comercial, de inversión o fiscal. Debe consultar a sus propios asesores sobre estos asuntos. Las referencias a cualquier valor o activo digital son solo para fines ilustrativos y no constituyen una recomendación de inversión ni una oferta para proporcionar servicios de asesoramiento de inversión. Además, este contenido no está dirigido ni destinado a ser utilizado por ningún inversionista o posible inversionista, y bajo ninguna circunstancia se puede confiar en él al tomar una decisión de invertir en cualquier fondo administrado por a16z. (Una oferta para invertir en un fondo a16z se realizará solo mediante el memorando de colocación privada, el acuerdo de suscripción y otra documentación relevante de dicho fondo y debe leerse en su totalidad). Cualquier inversión o compañía de cartera mencionada, referida o descritas no son representativas de todas las inversiones en vehículos administrados por a16z, y no puede garantizarse que las inversiones serán rentables o que otras inversiones realizadas en el futuro tendrán características o resultados similares. Una lista de inversiones realizadas por fondos administrados por Andreessen Horowitz (excluyendo inversiones para las cuales el emisor no ha otorgado permiso para que a16z divulgue públicamente, así como inversiones no anunciadas en activos digitales que cotizan en bolsa) está disponible en https://a16z.com/investments /.

Los cuadros y gráficos proporcionados en el interior tienen únicamente fines informativos y no se debe confiar en ellos al tomar cualquier decisión de inversión. El rendimiento pasado no es indicativo de resultados futuros. El contenido habla sólo a partir de la fecha indicada. Todas las proyecciones, estimaciones, pronósticos, objetivos, perspectivas y/u opiniones expresadas en estos materiales están sujetas a cambios sin previo aviso y pueden diferir o ser contrarias a las opiniones expresadas por otros. Consulte https://a16z.com/disclosures para obtener información adicional importante.

Tabla de contenido