La integración de la inteligencia artificial (IA) en la administración pública es una tendencia que gana fuerza en todo el mundo, en particular en la asignación de servicios sociales, como los beneficios de desempleo y la asistencia de la vivienda. Un estudio de cooperación del Instituto Max Planck para el Desarrollo Humano y la Toulouse School of Economics revela un notable escepticismo entre aquellos que dependen de estos beneficios con respecto a los sistemas automatizados de toma de decisiones. Este escepticismo subraya la importancia de considerar las perspectivas de las personas afectadas para promover la confianza en los sistemas apoyados por la IA.
Un caso ilustrativo es el programa Smart Check de Amsterdam, que tenía como objetivo detectar el fraude de bienestar mediante el análisis de diferentes puntos de datos, como los ingresos y la composición familiar, para asignar puntajes de riesgo a las aplicaciones. Las aplicaciones de alto riesgo se marcaron para una evaluación adicional, pero el proceso influyó en poblaciones desproporcionadamente vulnerables desproporcionadamente vulnerables, incluidos inmigrantes y padres solteros, sin ofrecer una justificación suficiente para la investigación. Los grupos de retorno de intereses y expertos legales llevaron a la ciudad a suspender el programa, lo que confirma la preocupación por el sesgo y la falta de transparencia.
La investigación realizada por el Instituto Max Planck y la Escuela Toulouse incluyeron tres encuestas a gran escala en las que más de 3.200 participantes en los Estados Unidos y los participantes británicos estaban involucrados: ¿aceptarían decisiones más rápidas de una máquina si significaba una mayor naturalidad de rechazos injustos? El estudio reveló un marcado contraste en la actitud entre los receptores de beneficios y los no receptores. Aunque muchas personas apoyaron tiempos de procesamiento más rápidos, aquellos que recibieron beneficios sociales mostraron objeciones significativas a las decisiones impulsadas por la IA.
Mengchen Dong, autor principal y científico de investigación, señala un error crítico que prevalece entre los responsables políticos, que las opiniones de la población general que se reflejan en todas las partes interesadas. Los hallazgos del estudio enfatizan que los receptores de bienes sociales están mucho menos inclinados a aceptar la IA en los roles de toma de decisiones, lo que indica una brecha tangible en las percepciones entre estos grupos.
Además, los no comprometidos a menudo sobreestiman cuántos receptores de confianza colocan en los sistemas de IA, incluso cuando se estimula a evaluar con precisión. Esto sugiere un desacoplamiento donde las poblaciones vulnerables tienen una comprensión más matizada de sus circunstancias en comparación con las opiniones sociales más amplias.
La metodología de la investigación incluyó presentar a los participantes escenarios realistas de toma de decisiones. Tuvieron que elegir entre tiempos de procesamiento humano más largos o decisiones de IA aceleradas con un cierto riesgo de rechazos incorrectos. El brazo británico del examen utilizó una combinación equilibrada de receptores de beneficios y no receptores para registrar con precisión diferentes perspectivas.
A pesar de los intentos de aumentar la confianza, como la información hipotética de los participantes sobre un proceso potencialmente profesional, los resultados mostraron un impacto mínimo en la aceptación general de la IA en las decisiones de bienestar. Los participantes prefirieron a los trabajadores casos humanos por encima de la IA, a pesar de la eficacia similar en la velocidad y la precisión.
La aceptación de la IA en los sistemas de bienestar social se correlaciona estrechamente con la confianza pública en las instituciones gubernamentales. Un sentimiento negativo contra la IA conduce a una reducción de la confianza en los gobiernos que implementan estas tecnologías. Los investigadores advierten sobre el diseño de sistemas AI exclusivamente en función de las preferencias mayoritarias o los datos agregados. Hacen hincapié en la necesidad de incluir voces marginadas para evitar decisiones ilegales que puedan conducir a graves consecuencias para los grupos vulnerables.
Los autores abogan por un cambio en cómo se desarrollan los sistemas de IA públicos e insisten en cambiar de estadísticas que están dirigidas puramente a la eficiencia técnica a un enfoque más participativo que incluye los aportes de los afectados. Dichos cambios son esenciales para evitar la confianza en la administración pública y la tecnología a largo plazo.
Este esfuerzo de investigación continuo está destinado a absorber aún más las experiencias y perspectivas de las poblaciones vulnerables en Dinamarca, de modo que la comprensión de cómo la IA en la administración pública puede implementarse más incluso más justo.