La preocupación crece sobre «IA aparentemente consciente» cuando los expertos advierten sobre la aparición de «psicosis de IA»


En un paisaje en rápida evolución de inteligencia artificial, han surgido desarrollos importantes que atraen las complejidades y desafíos a las tecnologías de IA a la atención. Un recién formado Comité Político Pro-AI para Acción Política (PAC) ha recopilado un apoyo financiero sustancial de $ 100 millones, lo que marca un movimiento sustancial para defender la política amigable con AI. Mientras tanto, las figuras técnicas prominentes están enredadas en una declaración legal, porque Elon Musk ha iniciado demandas contra Apple y OpenAI con respecto a sus esfuerzos de cooperación.

En el ámbito de la compañía, Meta recientemente participó en una asociación notable con Google, que indica un cambio en las alianzas de la compañía en medio del sector de la IA competidores. Sin embargo, este progreso viene con preocupaciones urgentes: la investigación indica que la tecnología de IA mueve activamente numerosas niveles de entrada, lo que atrae a los debates sobre las implicaciones socioeconómicas de dicho progreso tecnológico.

– Anuncio –

Un punto focal en el discurso sobre la IA es el concepto de «AI aparentemente consciente» (SCAI), articulado por el CEO de Microsoft AI, Mustafa Suleyman. En una publicación de blog reciente, Suleyman levantó alarmas sobre los peligros potenciales de los sistemas de IA que pueden imitar la conciencia convincente sin sentir realmente. Dudaba de las implicaciones de los usuarios de estos sistemas que pueden confundir con los seres con experiencias subjetivas reales, advirtiendo las consecuencias para la salud mental, un fenómeno que él llama ‘AI -psicosis’.

Suleyman describió los atributos que son necesarios para que la IA cambie a SCAI, incluidas las habilidades de conversación, la participación empática, la memoria de las interacciones en el pasado y las opciones de planificación avanzada. A pesar de las tecnologías existentes que muestran diferentes de estas características, actualmente pierden aspectos fundamentales, como la motivación intrínseca y la auto -conciencia. Advirtió que SCAI representa una realidad inminente, en los próximos años factibles si los ingenieros eligen recolectar estos atributos en un modelo de IA, un objetivo que él cree que debe evitarse.

El momento de los comentarios de Suleyman lleva a la reflexión sobre un caso controvertido del verano de 2022 que involucra a Blake Lemoine, un investigador de Google AI que fue despedido después de afirmó que el chatbot de Google de Lamda era consciente. En ese momento, sus afirmaciones con escepticismo fueron confrontados y rechazados como irracionales. Sin embargo, el discurso ahora invita a una revaluación de las ideas de Lemoine sobre la percepción humana de la conciencia de la IA.

El contexto histórico de la IA plantea preguntas y llamadas adicionales sobre el trabajo de Joseph Weizenbaum, el fabricante de Eliza, el primer chatbot desarrollado en 1966. El objetivo inicial de Weizenbaum para crear una herramienta terapéutica de IA lo llevó a descubrir las conexiones emocionales profundas que se formaron con su creación simplista, que tenía una descuento de la lobia humana hacia la tecnología. Su desilusión final con la idea de que AI podría funcionar si una persona enfatizara la distinción entre simular la conciencia y experimentarla.

– Anuncio –

A medida que el debate sobre SCAI continúa, se hace necesario cubrir la precaución de Weizenbaum contra la fusión de simulaciones de IA con la conciencia real. El discurso constante sobre las implicaciones morales de la expansión de los derechos a la IA, los efectos psicológicos en los usuarios que creen en el sentimiento de sus agentes de conversación y las obligaciones éticas de las empresas tecnológicas son fundamentales para navegar a través del panorama futuro de la inteligencia artificial. Con el despliegue tan alto como son, es crucial que la sociedad luche con estas preguntas a medida que avanza la tecnología.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí