En una era en la que el progreso en la inteligencia artificial (IA) ofrece oportunidades notables y en los riesgos profundos, las personas en el mundo técnico luchan con su significado en la configuración del futuro de la humanidad. Entre ellos está Henry, un investigador dedicado de IA estacionado en Silicon Valley. Él espera que la IA evolucione hacia un poderoso poder en los próximos años, lo que tendría el potencial de amenazar la existencia humana misma. Su dedicación para abordar este problema es clara; Ha dedicado su vida a trabajar en un pequeño laboratorio de seguridad de IA, después de haber renunciado a las relaciones románticas para concentrarse en su misión, e incluso dona una parte considerable de sus ingresos a las organizaciones de seguridad de IA.
En su tiempo libre, Henry se prepara para lo que considera como un escenario de casos de salchicha: hacer biohelters de bricolaje. Estas estructuras caseras están destinadas a proteger contra las peligrosas consecuencias de la IA avanzada, como los patógenos fatales. Al usar un tipo común de carpa diseñada para el cultivo de plantas e integrar filtros de aire profesionales, estima que toda la configuración podría costarle alrededor de $ 10,000, incluidos tres años en el suministro de alimentos. Elige permanecer en el anonimato debido al estigma que está conectado a la «preparación», una preocupación de que sus temores no se hagan realidad.
Los temores de Henry están representados por muchos en su círculo, donde se intensifican las discusiones sobre el riesgo de IA. Este sentimiento colectivo enfatiza una visión existencial rápidamente desgarrada que varía del miedo apocalíptico al futurismo optimista. Algunos expertos de la industria adoptan un estilo de vida que llaman ‘inteligente a caliente’, priorizan el carisma y el encanto físico sobre la valentía intelectual, porque anticipan un futuro en el que la IA presupone gran parte de la carga de trabajo intelectual.
Apoorva Srinivasan, un investigador biomédico, señala este cambio en la atracción cuando los desarrollos en AI generativo toman forma. Mientras que después de un descanso navega por su regreso a la escena de las citas, se da cuenta de que se inclina a tener personas que posean encanto social en lugar de puramente inteligencia. Esto está en línea con una tendencia más amplia que se observa entre sus compañeros, que cultivan habilidades sociales para prosperar en una sociedad donde la participación emocional puede volverse cada vez más vital.
Las discusiones adicionales revelaron que para algunos, el miedo a acercarse a DOO of Ai los lleva a actividades más hedonistas que terminan una «lista de mentalidad». Aella, una investigadora y escritora fetiche, publica que la realización del potencial de la IA para borrar la humanidad la lleva a rendirse a experiencias más precarias e intensas, una forma de pensar compartida por el capitalista de riesgo Vishal Maini, quien defiende la prioridad conscientemente en medio de una floreciente edad.
Las implicaciones que cambian la vida de la IA no se limitan a la introspección y los ajustes de estilo de vida. También se filtran en las relaciones personales. Holly Elmore, una defensora de limitar el crecimiento de la IA a través de una organización masiva, explica cómo los diferentes puntos de vista sobre el activismo de la IA han influido en su matrimonio, lo que lleva a su divorcio. Mientras tanto, algunos empleados técnicos reconsideran sus estrategias financieras; Daniel Kokotajlo, un ex investigador de Openai, dejó de ahorrar por completo para la jubilación y notó que los objetivos financieros tradicionales pueden hacer un futuro potencialmente catastrófico.
Otros abordan el futuro con un sentido de urgencia, impulsado por la convicción de que deben maximizar el beneficio financiero antes de que el trabajo intelectual humano se desactualice. Ese optimista sobre el crecimiento técnico proporcionó un período de tiempo limitado para establecer la seguridad económica, y algunos incluso arriesgaron su estabilidad financiera de invertir en empresas que están vinculadas a la IA.
Mientras que las voces resuenan en toda la comunidad técnica, los escépticos advierten sobre predicciones extremas. David Thorstad, profesor, señala que la proliferación de una cosmovisión extrema dentro de los círculos técnicos puede conducir a una decisión equivocada, advertencia de supuestos radicales sobre el proceso de IA.
Esta dicotomía de creencias crea una historia fascinante en la que algunas personas como Ulrik Horn están preocupadas por el papel de la IA en la aceleración de biohazards, canalizando sus temores a empresas empresariales que se centran en desarrollar tecnologías de protección. Otros, incluido James Norris, consideran que el futuro es demasiado sombrío, optaron por desatar de la vida tradicional y buscar refugio en los santuarios sobrevivientes.
Debido a este espectro de preparación y miedo, surge un hilo común: el reconocimiento del potencial de transformación de la IA, combinado con un deseo urgente de adaptarse a un futuro incierto. Si bien el pensamiento de Henry está evolucionando desde la construcción de bioshelters simples hasta considerar infraestructuras protectoras más grandes para su comunidad, la conversación sobre IA continúa chocando con el delicado equilibrio de esperanza, miedo y la necesidad de actuar.