Colaborador: El cerebro humano enseña, piensa o recuerda como una IA. Abrazar la diferencia


Recientemente, el fundador de NVIDIA, Jensen Huang, cuya compañía está construyendo los chips que alimenta los sistemas de inteligencia artificiales más avanzados de hoy, anotado: «Lo que es realmente, muy sorprendente es la forma en que programas una IA, la forma en que programas a una persona». Ilya Sutskever, cofundadora de OpenAi y una de las principales figuras de la Revolución AI, también fijado Que es solo cuestión de tiempo antes de que la IA pueda hacer todo lo que la gente puede hacer, porque «el cerebro es una computadora orgánica».

Soy un investigador neurocientífico cognitivo y creo que están peligrosamente equivocados.

La mayor amenaza no es que estas metáforas nos confundan sobre cómo funciona la IA, sino que nos engañan sobre nuestros propios cerebros. Durante las revoluciones tecnológicas anteriores, así como la cultura popular, los científicos tienden a investigar la idea de que el cerebro humano podría interpretarse como análogo a una máquina nueva después de la otra: un reloj, una centralita, una computadora. La última metáfora incorrecta es que nuestros cerebros son como sistemas de IA.

He visto este cambio en los últimos dos años en conferencias, cursos y conversaciones en el campo de la neurociencia y más allá. Palabras como «entrenamiento», «refinamiento» y «optimización» a menudo se usan para describir el comportamiento humano. Pero no entrenamos, refinamos u optimizamos la forma en que la IA lo hace. Y tales metáforas inexactas pueden causar daños reales.

La idea del espíritu del siglo XVII como una «pizarra limpia» presentó a los niños como superficies vacías que están completamente formadas por influencias externas. Esto llevó a sistemas educativos rígidos que intentaron eliminar las diferencias en los niños neurodivergentes, como aquellos con autismo, TDAH o dislexia, en lugar de ofrecer apoyo personalizado. Del mismo modo, el comienzo de la «caja negra» de principios del siglo XX por la psicología conductista afirmó que solo importaba el comportamiento visible. Como resultado, la atención de salud mental a menudo tenía como objetivo manejar los síntomas en lugar de comprender sus causas emocionales o biológicas.

Y ahora hay nuevas malas conductas cuando comenzamos a vernos a la imagen de la IA. Herramientas educativas digitales desarrolladas en Por ejemplo, en los últimos años, por ejemploAjuste lecciones y preguntas basadas en las respuestas de un niño, por lo que el estudiante se mantiene teóricamente en un nivel de aprendizaje óptimo. Esto está fuertemente inspirado en cómo se entrena un modelo de IA.

Este enfoque adaptativo puede producir resultados impresionantes, pero observa factores menos medibles, como la motivación o la pasión. Imagine que dos niños aprenden piano con la ayuda de una aplicación inteligente que se adapta a sus habilidades cambiantes. La gente aprende rápidamente a jugar sin problemas, pero odia cada sesión de práctica. El otro comete errores constantes pero disfruta cada minuto. Solo juzga las condiciones que aplicamos a los modelos de IA, diríamos que el niño que interpreta al otro estudiante ha superado.

Pero capacitar a los niños es diferente de capacitar un algoritmo de IA. Esa evaluación simplista no tendrá en cuenta la miseria del primer estudiante o el disfrute del segundo niño. Esos factores son importantes; Lo más probable es que el niño que se divierte es el que tocará durante una década, e incluso puede terminar con un músico mejor y original porque disfrutan de la actividad, los errores y demás. Definitivamente creo que al aprender la IA se está transformando inevitablemente y potencialmente para mejor, pero si solo juzgamos a los niños en términos de lo que puede ser «capacitado» y «refinado», repetiremos el viejo error para enfatizar la producción sobre la experiencia.

Veo esto jugando con estudiantes no graduados, que creen por primera vez que pueden lograr los mejores resultados medidos al externalizar por completo el proceso de aprendizaje. Muchos han utilizado herramientas de IA durante los últimos dos años (algunos cursos no lo permiten y otros) y ahora confían en ellas para maximizar la eficiencia, a menudo a expensas de la reflexión y la comprensión genuina. Utilizan la IA como una herramienta que les ayuda a producir buenos ensayos, pero en muchos casos el proceso ya no está muy relacionado con el pensamiento original o para descubrir qué causa la curiosidad de los estudiantes.

Si seguimos pensando dentro de este marco cerebral como AIS, también corremos el riesgo de perder los procesos de pensamiento vital que han llevado a grandes avances en ciencia y arte. Estos logros no surgieron de la identificación de patrones conocidos, sino de romperlos por desorden y errores inesperados. Alexander Fleming descubrió la penicilina al notar que el hongo creció en una placa de Petri que había omitido accidentalmente, matar a las bacterias circundantes. Un feliz error cometido por un investigador desordenado que salvó la vida de cientos de millones de personas.

Este desorden no solo es importante para los científicos excéntricos. Es importante para cada cerebro humano. Uno de los descubrimientos más interesantes en neurociencia en las últimas dos décadas es la ‘red de modo estándar’, un grupo de áreas cerebrales que se activa cuando estamos soñando soñando y no nos enfocamos en una tarea específica. Esta red también ha resultado que juega un papel en pensar en el pasado, presentarse y pensar en nosotros mismos y en los demás. Ignorar este comportamiento evastante del espíritu como un mal funcionamiento en lugar de adoptarlo como un núcleo de la función humana nos inevitará para construir sistemas inadecuados en educación, salud mental y derechos.

Desafortunadamente, es especialmente fácil confundir la IA con el pensamiento humano. Microsoft describe modelos de IA generativos como ChatGPT en su Sitio web oficial Como herramientas que «reflejan la expresión humana, para redefinir nuestra relación con la tecnología». Y el CEO de OpenAi, Sam Altman, recientemente enfatizó su nueva función favorita en ChatGPT llamada «Memoria». Con esta función, el sistema puede almacenar y recopilar datos personales en conversaciones. Por ejemplo, si le pregunta a ChatGPT dónde comer, esto puede recordarle un restaurante tailandés que llamó que quería probar meses antes. «No es que conectes tu cerebro en un día», Altman explicado«Pero … llegará a conocerte, y será esta expansión de ti mismo».

La sugerencia de que la «memoria» de AI será una extensión propia es nuevamente una metáfora deficiente, que malinterpreta la nueva tecnología y nuestra propia mente. A diferencia de la memoria humana, que evolucionó para olvidar los recuerdos, la actualización y la reforma basada en innumerables factores, la memoria de IA puede diseñarse para almacenar información con mucha menos distorsión u olvidada. Una vida en la que las personas subcontratan la memoria de un sistema que recuerda casi todo, no es una extensión del yo; Rompe los mecanismos que nos hacen humanos. Marcaría un cambio en cómo nos comportamos, entendemos el mundo y tomamos decisiones. Esto puede comenzar con cosas pequeñas, como elegir un restaurante, pero puede cambiar rápidamente a decisiones mucho más grandes, como tomar otra carrera o elegir a un compañero que no sea que lo hubiéramos, porque los modelos de IA pueden obtener conexiones y contexto en la superficie de que nuestros cerebros pueden desaparecer por alguna razón.

Esta subcontratación puede ser tentadora porque esta tecnología parece humana, pero AI enseña, comprende y ve al mundo de maneras fundamentalmente diferentes y realmente no experimenta dolor, amor o curiosidad como nosotros. Las consecuencias de esta confusión constante pueden ser desastrosas, no porque la IA sea inherente a dañina, sino porque en lugar de dar forma a una ayuda que es un suplemento para nuestra mente humana, nos permitimos reformar a su propia imagen.

A él más bajo y phD Candidato en neurociencia cognitiva en la Universidad de Columbia y autor de la novela «La fábrica de nubes de la Sra. Lilienblum. «. Su Boletín de sustitución, Historias de neuronasConecta las ideas de la neurociencia con el comportamiento humano.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí