Seleccionar página

Fuente: Pavel Danilyuk/Pexels

Los economistas del comportamiento y otros han estado estudiando durante mucho tiempo cómo surgen las instituciones de gobierno mediante la realización de experimentos de toma de decisiones de laboratorio, en los que los participantes pueden seleccionar reglas e instituciones votando o optando individualmente por una de varias opciones disponibles para ellos. Los escenarios clásicos son situaciones de dilema social, en las que todos los miembros de un grupo o sociedad pueden estar mejor si todos contribuyen a algún esfuerzo grupal o se resisten a sobreexplotar un recurso compartido, pero cada miembro enfrenta un incentivo individual para eludir su parte.

Muchos estudios sugieren que en las sociedades modernas, el individuo modal prefiere cooperar, siempre que otros lo hagan, y que una fracción sustancial de los individuos dispuestos a cooperar también están dispuestos a incurrir en un costo para castigar a los que no cooperan. La presencia del castigo entre pares estabiliza la cooperación, tan efectivamente, en algunos estudios, que algunos teóricos del comportamiento han sugerido que la ira hacia los que violan las reglas es una característica evolutivamente seleccionada de la naturaleza humana.

Una pregunta que surge naturalmente es por qué las sociedades establecen instituciones centralizadas para hacer cumplir las reglas, y por qué la aplicación individual por parte de los individuos está mal vista como vigilantismo en muchos entornos. Por supuesto, la respuesta depende en parte de la escala del problema de la acción conjunta: la aplicación se deja naturalmente a los propios miembros del grupo en un grupo muy pequeño (por ejemplo, de compañeros de cuarto o copropietarios de una pequeña tienda), pero se asigna a instituciones formales en un entorno a gran escala (reforzar la recaudación de impuestos de millones de hogares).

Habiendo estudiado la cuestión en formas más simples, los investigadores están abordando últimamente dimensiones más espinosas, como el impacto de la información no confiable, que podría llevar a que los inocentes sean castigados y los culpables a salir libres. Los estudios iniciales realizados por economistas experimentales mostraron, como era de esperar, que cuando se sabe que los informes sobre los niveles de cooperación son propensos a errores, el castigo individual (entre pares) funciona con menos eficacia.

De manera algo tranquilizadora, en el estudio de seguimiento de Andreas Nicklisch, Christian Thoeni y el mío, encontramos que muchos participantes estaban dispuestos a incurrir en al menos un pequeño costo para mejorar la calidad de la información que se les informaba a fin de castigar de manera más “justa”. En nuestro estudio, no solo hubo un efecto positivo en los niveles de cooperación y las ganancias, sino que encontramos evidencia de que los posibles castigadores incurrían en más costos de monitoreo (es decir, mejora de la información) de los requeridos desde el punto de vista de la eficacia disciplinaria, evidentemente debido al deseo de justicia al castigar como un bien por derecho propio.

En un estudio más reciente que pronto se publicará en la revista Economica de la London School of Economics, Thomas Markussen, Liangjun Wang y yo observamos cómo el conocimiento de que los niveles de cooperación se observan “ruidosamente” (es decir, con una probabilidad conocida de error) afecta las preferencias de los participantes para dar la responsabilidad del castigo a los miembros individuales del grupo. La alternativa es tener un algoritmo centralizado, que podría pensarse que representa un estado impersonal, castiga automáticamente cuando hay un informe de falta de cooperación.

Fundamentalmente, la información del estado o del algoritmo es inexacta con la misma frecuencia que los informes de los miembros individuales, en la versión del experimento en la que ambos obtienen información imperfecta. También estudiamos tratamientos en los que ambos obtienen información perfecta y aquellos en los que solo los individuos o solo el estado obtienen información imperfecta. La información imperfecta llega con un 10 por ciento de probabilidad, su aleatoriedad impide conjeturas efectivas sobre qué informes son erróneos y cuáles son precisos.

Comenzamos reproduciendo el resultado anterior: que el castigo centralizado y el basado en pares son aproximadamente igualmente populares cuando la información es perfecta, los grupos son pequeños y el esquema centralizado está disponible a un costo modesto. Luego encontramos que cuando solo los miembros del grupo, o solo el castigador central, reciben información imperfecta, los participantes votan más para poner el castigo en manos de quien obtenga mejor información, un resultado que puede verse como poco sorprendente y, en cierto sentido, como simplemente confirmando que los participantes estaban despiertos y se esforzaban por lograr mayores ganancias.

Notamos, sin embargo, que el alejamiento del castigo entre pares es considerablemente más pronunciado que el cambio del castigo central, cuando solo uno sufre de información imperfecta. Finalmente, encontramos que cuando la información que llega a los miembros del grupo y al dispositivo de castigo central es igualmente imperfecta, muchos más grupos optan por asignar un castigo al dispositivo, o lo que se puede denominar un castigo algorítmico (simplemente una rutina en el programa de computadora experimental que deduce las ganancias). de un individuo del que se informa que no ha contribuido al bien público, incluso cuando el informe es erróneo, como lo es el 10 por ciento de las veces).

¿Por qué los participantes de nuestro experimento prefieren el algoritmo al castigo individual cuando ambos se ven acosados ​​por información falsa con la misma frecuencia? Nuestro análisis sugiere que la explicación radica en la incomodidad psicológica por participar en una acción punitiva cuando se sabe que el individuo objetivo podría ser inocente.

Mostramos, mediante un análisis teórico, que para que la posibilidad de recibir un castigo funcione bien como elemento disuasorio del free-riding, la cantidad de castigo que se aplica cuando se informa que un miembro del grupo no contribuye debe ser mayor bajo imperfecto que bajo información perfecta. Pero nuestros participantes en realidad castigan menos, no más, cuando se sabe que la información sufre errores ocasionales, lo que sugiere que los escrúpulos por castigar a los inocentes anulan las preocupaciones instrumentales para un número sustancial de sujetos.

También analizamos los votos de los participantes sobre si permitir el castigo entre pares o instalar el esquema de castigo central. Primero se requiere que los participantes participen en algunos períodos de interacción sin castigo, algunos con castigo de compañeros y otros con el esquema de castigo central. Luego votan entre el castigo central y el del compañero al comienzo de cada uno de los tres conjuntos de períodos de interacción. Preguntamos si la frecuencia de los votos para un enfoque versus el otro se explica bien por las diferencias en las cantidades ganadas por participantes específicos bajo cada enfoque durante las primeras fases.

Nuestro análisis encuentra que hay más votos en contra del enfoque de castigo entre pares cuando la información es imperfecta de lo que puede explicarse únicamente por las diferencias de ingresos. Abogamos por una explicación de esto basada en preferencias para evitar tener que “luchar con escrúpulos” sobre si castigar o no.

Nuestra investigación representa una pieza muy específica de lo que, sin duda, será una de las mayores preguntas a las que se enfrentará la sociedad en las próximas décadas: ¿En qué situaciones queremos confiar plenamente en los autómatas y en cuáles queremos asignar decisiones a humanos? oficiales? Aunque algunos de los dominios en cuestión pueden invitar a un análisis basado completamente en consideraciones de qué modo producirá menos errores (por ejemplo, en el caso de los automóviles con conductor versus los impulsados ​​por computadora), la psicología normativa también requerirá consideración. La impersonalidad de la aplicación centralizada de las reglas podría (algo sorprendentemente para Franz Kafka) convertirse en una de las virtudes por las que a veces será preferida.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información

ACEPTAR
Aviso de cookies