La misena para la información fue un problema durante las inundaciones en Texas. Ai -chatbots no siempre ayudó


Cuando las inundaciones repentinas fatales encontradas en el centro de Texas la semana pasada, las personas en el sitio de las redes sociales X recurrieron a la inteligencia artificial Chatbot Grok para obtener respuestas a aquellos que culpan.

Grug será con confianza para confiar en el presidente Trump.

«Sí. Los recortes de 2025 de Trump redujeron el financiamiento de NOAA/NWS con ~ 30% y el personal con el 17%, la precisión del pronóstico de predicción. Las advertencias han subestimado la lluvia, que contribuyó a advertencias insuficientes por el flash sobresaliente en la ejecución de las búsquedas», las búsquedas en las búsquedas, «matando la basura», matando a la lima «, matando el lótido», matando la lanza, matando el lango, matando el lóbulo «, matando el lóbulo», matando el lóbulo «, matando el lóbulo», matando el lóbulo, matando la lámina «, matando el lango, matando la lámina». «Matar». Aquellos al menos 120 muertos, en el curso de las búsquedas continuas «, dijo Grok en un puesto de los muertos en el curso de las búsquedas actuales», dijo en una publicación el sábado antes de la cruz de asesinatos que al menos 120 muertos, en el curso de las búsquedas actuales, en un puesto de la cruz de matanza.

Frente al retroceso de los usuarios de X de que llegó a conclusiones y «se despertó», luego devolvió el chatbot.

«Esa captura de pantalla es una fabricación: nunca la he publicado. Hechos reales: los recortes de NOAA de 2025 de Trump reducen el financiamiento ~ 30% y el personal 17%, que están preocupados (Axios, Fox). Las inundaciones de Texas han matado a 43+, con advertencias que son.

Los comentarios conflictivos muestran cómo los chatbots de IA a veces pueden ofrecer respuestas simples pero inexactas, por lo que se agrega confusión a la charla en línea que ya está llena de mentiras y teorías de conspiración.

Grok tuvo más problemas más adelante en la semana. El chatbot hizo comentarios antisemita y elogió a Adolf Hitler, que se solicitó Xai Para eliminar los postes de ataque. El dueño del negocio Elon Musk dijo en X que el chatbot «estaba demasiado entusiasmado para complacer y manipular», un problema que se abordaría.

Grok no es el único chatbot que ha hecho declaraciones inapropiadas e inexactas. El año pasado, Chatbot Gemini de Google creó imágenes con personas de color en uniformes militares alemanes de la Segunda Guerra Mundial, que no eran comunes en ese momento. El gigante de la búsqueda detuvo la capacidad de Géminis para generar imágenes de personas, y señaló que resultó en algunas «inexactitudes». El chatgpt de OpenAI también ha generado casos de casos falsos, lo que les da a los abogados una multa.

Los problemas que los chatbots a veces tienen con la verdad es una atención creciente, porque más personas los usan para encontrar información, hacen preguntas sobre los eventos actuales y refutan la información incorrecta. Alrededor del 7% de los estadounidenses usan chatbots de IA e interfaces para noticias cada semana. Ese número es más alto, alrededor del 15%, para personas menores de 25 años, según uno Junio ​​-eporto del Instituto Reuters. Grok está disponible en una aplicación móvil, pero la gente también puede hacer las preguntas de AI Chatbot en el sitio de redes sociales X, anteriormente Twitter.

A medida que aumenta la popularidad de estas herramientas impulsadas por la IA, los expertos en información incorrectos dicen que las personas deben tener cuidado con lo que dicen los chatbots.

«No es un árbitro de la verdad. Es simplemente un algoritmo de predicción. Para algunas cosas, como quién es la culpa de las inundaciones en Texas, es una pregunta compleja y hay mucho juicio subjetivo», dijo Darren Linvill, profesor y codirector del Centro de Innovación Familiar de Watts.

Republicanos y demócratas han debatido si las reducciones laborales en el gobierno federal han contribuido a la tragedia.

Los chatbots recopilan información disponible en línea y proporcionan respuestas, incluso si no son correctas, dijo. Si los datos sobre los que están capacitados están incompletos o sesgados, el Tienes un modelo Puede dar respuestas que no tengan sentido o son incorrectos en lo que se conoce como ‘alucinaciones’.

Newsguard, quien lleva a cabo una auditoría mensual de 11 herramientas generativas de IA, descubrió que el 40% de las respuestas de chatbots en junio contenían información falsa o una no respuesta, algunas en relación con algunas noticias de la corteza como la guerra de Israel-Irán y el tiroteo de dos legisladores en Minnesota.

«Los sistemas de IA pueden ser amplificadores no deseados de información falsa cuando los datos confiables se ahogan por la repetición y la viralidad, especialmente durante los eventos de rápido movimiento cuando las afirmaciones falsas se extienden ampliamente», dijo el informe.

Durante los barridos de inmigración realizados por la Control de Inmigración y Aduanas estadounidenses en Los Ángeles el mes pasado, Grock controló incorrectamente artículos.

Después del gobierno de California Gavin Newsom, los políticos y otros compartieron una foto de miembros de la Guardia Nacional que dormían en el piso de un edificio federal en Los Ángeles, Grano False dijo que las imágenes vinieron de Afganistán en 2021.

La redacción o el momento de una pregunta pueden proporcionar diferentes respuestas a los diferentes chatbots.

Cuando el mayor competidor de Grok, ChatGPT, se hizo una pregunta que sí o no sobre si los ahorros del personal de Trump condujeron a los muertos en las inundaciones de Texas el miércoles, el AI -Chatbot tuvo una respuesta diferente. «No, esa afirmación no se mantiene», respondió Chatgpt, refiriéndose a los puestos policiales y a Associated Press.

Aunque todos los tipos de IA pueden alucinar, algunos expertos en información equivocados dijeron que están más preocupados por Grok, un chatbot hecho por la compañía de IA de Musk Xai. El chatbot está disponible en X, donde la gente hace preguntas sobre los eventos de noticias de última hora.

«Grok es lo más inquietante para mí, porque gran parte de su base de conocimiento se basa en tweets», dijo Alex Mahadevan, director de Mediawise, el proyecto de alfabetización de medios digitales de Poynter. «Y está controlado y aunque manipulado por alguien que ha difundido información incorrecta y teorías de conspiración en el pasado».

En mayo, Grok comenzó a repetir afirmaciones de ‘genocidio blanco’ en Sudáfrica, una teoría de la conspiración que Musk y Trump se han fortalecido. La compañía de IA detrás Grano Luego se publicó que se aplicó un «ajuste no autorizado» al chatbot que ha ordenado dar una respuesta específica sobre un tema político.

Xai, que también posee X, no respondió a una solicitud de comentarios. La compañía ha lanzado una nueva versión de Grok esta semana, de la cual Musk dijo que también se integrará en los vehículos Tesla.

Los chatbots suelen ser correctos cuando tienen hechos. Grok ha invalidado afirmaciones falsas sobre las inundaciones en Texas, incluida una teoría de la conspiración de que Cloudzaiien, un proceso en el que las partículas se introducen en las nubes para aumentar la precipitación-van de la compañía Rainmaker Technology Corp. Corp. Corp.

Los expertos dicen que los chatbots de IA también tienen el potencial de ayudar a las personas a reducir las creencias de las personas. Teorías de conspiraciónPero también pueden fortalecer lo que la gente quiere escuchar.

Aunque las personas quieren ahorrar tiempo leyendo resúmenes de IA, las personas deben pedirle a los chatbots que citen sus fuentes y hacer clic en los enlaces que ofrecen para verificar la precisión de sus respuestas, dijeron expertos en información equivocados.

Y es importante que las personas no traten a los chatbots «como una especie de dios en la máquina, comprender que es solo una tecnología como cualquier otra», dijo Linvill.

«Después de eso se trata de aprender a la próxima generación un conjunto completamente nuevo de habilidades de alfabetización mediática».



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí