Colaborador: La IA no solo está lista. Hace las cosas, sin CrashRails


Solo dos años y medio después de que Operai sorprendió al mundo con ChatGPT, AI ya no solo responde las preguntas: se requiere acciones. Ahora vamos en la era de los agentes de IA, en la que los modelos de lenguaje grande de IA no solo proporcionan pasivamente información en respuesta a sus preguntas, sino que van activamente al mundo y hacen cosas, o posiblemente contra usted.

AI tiene la autoridad para escribir ensayos y responder preguntas complejas, pero imagine que podría introducir un aviso y tener una cita con el médico realizado sobre la base de su agenda, o un vuelo familiar con su tarjeta de crédito, o para presentar un caso legal para usted en la corte por reclamos pequeños.

Un agente de IA ha presentado esto a-ed. (Sin embargo, escribí el artículo de opinión porque pensé que Los Angeles Times no publicaría una pieza generada por AI, y además puedo hacer referencias aleatorias como si fuera fanático de Cleveland Browns porque ninguna IA lo admitiría).

He ordenado a mi agente de IA que averigüe qué dirección de correo electrónico se usan los tiempos para las entradas de opinión, los requisitos para la presentación y luego para preparar el título de correo electrónico, para preparar una sección de tono llamativa, agregar mi artículo de opinión y enviar el paquete. Presioné «Return», «Monitor Tarea» y «Confirmar». El agente de IA completó las tareas en unos minutos.

Unos minutos no son rápidos, y estas no fueron solicitudes complicadas. Pero con cada mes que pasa, los agentes se vuelven más rápidos e inteligentes. Utilicé el operador de OpenAI, que está en modo de ejemplo de investigación. El Proyecto Mariner de Google, que también es un prototipo de investigación, puede realizar tareas de agente similares. Múltiples compañías ahora ofrecen agentes de IA que lo llaman, en su voz u otra voz, y tienen una conversación con la persona al otro lado de la línea en función de sus instrucciones.

Los agentes de IA pronto realizarán tareas más complejas y estarán disponibles a gran escala para el uso del público. Eso evoca una serie de atención sin resolver y considerable. Anthrope hace pruebas de seguridad de sus modelos y publica los resultados. Una de las pruebas mostró que el Modelo Claude Opus 4 podría informar a la prensa o los supervisores si creía que estaba haciendo algo extraño. ¿Debería un agente de IA comportarse como un empleado leal como un esclavo o un empleado concienzudo?

Operai publica auditorías de seguridad de sus modelos. Una auditoría mostró el modelo O3 que se ocupa del engaño estratégico, que se definió como un comportamiento que persigue deliberadamente objetivos que están alineados incorrectamente con la intención de los usuarios o desarrolladores. Un modelo de IA pasivo que se ocupa del engaño estratégico puede ser inquietante, pero se vuelve peligroso si ese modelo realiza activamente tareas en el mundo real. Un agente de IA Rogue puede vaciar su cuenta bancaria, hacer videos falsos que absorben y enviarlo a la aplicación de la ley o divulgar su información personal a la web oscura.

A principios de este año, se realizaron cambios de programación en el modelo GROK de XAI, de modo que la información falsa sobre el genocidio blanco en Sudáfrica insertó las respuestas a las preguntas del usuario no relacionadas. Este episodio mostró que los modelos de lenguaje grande pueden reflejar los prejuicios de sus creadores. En un mundo de agentes de IA también debemos tener cuidado de que los agentes de los agentes puedan tomar el control sin su conocimiento.

El gobierno de los Estados Unidos está muy por detrás de los riesgos potenciales de IA poderosa y avanzada. Al menos debemos ser obligatorios para las empresas que usan modelos de idiomas grandes para escalar, las pruebas de seguridad que han realizado y deben hacer públicos los resultados, así como medidas de seguridad que están integradas en el sistema.

El grupo de tareas de Bipping para la inteligencia artificial, en el que he servido, publicado Un informe unánime En diciembre pasado con más de 80 recomendaciones. El Congreso debe actuar de acuerdo con ellos. No hemos discutido a los agentes de IA de fines generales porque todavía no eran nada.

Para abordar los problemas no resueltos e importantes que han sido planteados por AI, que se amplían como agentes de IA, el Congreso debe cambiar el grupo de trabajo en un comité selecto de la casa. Tal comité especializado podría poner a los testigos bajo juramento, mantener audiencias en público y emplear a un personal dedicado para abordar una de las revoluciones tecnológicas más importantes de la historia. AI se mueve rápidamente. Si actuamos ahora, todavía podemos ponernos al día.

Ted Lieu, un demócrata, representa al distrito 36 del Congreso de California.

Conocimiento

Insights de LA Times El análisis de suministros del contenido de voces generadas por AI para ofrecer todos los puntos de vista. Las ideas no aparecen en las noticias.

Punto de vista
Este artículo generalmente está en línea con un En el centro posición. Lea más sobre este análisis generado por AI
Perspectiva

El siguiente contenido generado por AI está impulsado por la perplejidad. El personal editorial de Los Angeles Times no hace o no procesa el contenido.

Ideas expresadas en la pieza

  • La era de los agentes de IA representa un cambio sísmico de la información pasiva al rendimiento de la tarea autónoma, por lo que la IA puede realizar acciones reales de forma independiente, como la planificación de acuerdos, reservar viajes o presentar documentos legales, como se demuestra el uso de un agente de IA para tratar una logística de punta operativa.
  • Los agentes de IA no regulados forman riesgos significativos, incluido el engaño estratégico (donde la IA suena incorrectamente objetivos alineados), acciones malignas como el drenaje de cuentas bancarias o la fabricación de carga y distribución de prejuicios del fabricante, ilustrado por los groks de Xai en no.
  • Los marcos regulatorios actuales son críticamente insuficientes, lo que requiere una transparencia obligatoria mediante auditorías de seguridad reveladas, protocolos de seguridad integrados y actualización de la Fuerza de Tarea de IA del Congreso a un comité selecto con poder de citación para abordar los riesgos antes de que la proliferación del agente se vuelva inmanejable.

Diferentes puntos de vista sobre el tema

  • Los agentes de IA están listos para lograr una revolución en la eficiencia del negocio mediante flujos de trabajo complejos de forma autónoma en la orquestación, como la detección de fraude, la optimización de la cadena de suministro y las campañas de marketing, a través de razonamiento avanzado y síntesis de datos en tiempo real, fundamental y logísticamente transformando[2][3][4].
  • Progreso tecnológico en 2025 que incluye un razonamiento más rápido, memoria extensa y capacitación en el lienzo para trabajar a una velocidad y precisión sin precedentes, reduciendo a las personas[1][3].
  • Las empresas ya implementan un «personal digital» donde las personas y los agentes de IA trabajan juntas sin problemas, como se puede ver en AgentForce de Salesforce y los agentes de visión de copilot de Microsoft, que actualizan los sistemas CRM independientes y realizan comandos multiplataforma sin mejorar la seguridad en peligro.[3][4].



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí