Presupuesto
Enviado por SteeleGGC • 5 de Septiembre de 2014 • 1.476 Palabras (6 Páginas) • 211 Visitas
9. Más cerca de la ingeniería social. Nuevos roles para el microeconomista: experimentación y diseño.
El diseño de mecanismos pone al microeconomista en el campo de la ingeniería. El problema es conseguir que los agentes digan la verdad en un mundo plagado por velos de incertidumbre que ocultan las preferencias y las voluntades de pago reales, y castigado por costos prohibitivos para el monitoreo directo de las acciones. Es un campo de aplicación nítida de la teoría de los juegos, de modo que el microeconomista se ha encontrado usando el instrumental muchas veces, más que desarrollándolo. Surge entonces aquí la cuestión de si la teoría de los juegos es o no parte de la microeconomía; en este volumen tenemos una contribución específica de modo que me aliviaré de la carga de tener que incursionar en el tema y de intentar una resolución de tal ardua cuestión (solucionada por el editor).
Acompañando estas ideas sobre diseño, han crecido significativamente los esfuerzos por poner a prueba las predicciones de la microeconomía sobre la base de experimentación (controlada). Según Roth (en Kagel y Roth (1995)), la Economía Experimental, incluye: 1) el testeo de teorías de elección individual, 2) la puesta a prueba de hipótesis de teoría de los juegos, y 3) las investigaciones de organización industrial. Con esa taxonomía, ¿no debería llamarse Microeconomía Experimental?
Un ejemplo relevante de estos avances es el trabajo Kahneman y Tversky (1979), el cual desafía la formulación de la utilidad esperada de Von Neumann y Morgenstern, utilizando como argumento un experimento propuesto a estudiantes. La experimentación referida a temas de decisiones bajo incertidumbre y que puso a prueba el resultado de la utilidad no es novedosa, porque el principio mismo de utilidad esperada surge de un experimento ideado por los Bernoulli (la paradoja de San Petesburgo; véase Kagel y Roth (1995)).
Kahneman y Tversky proponen el cambio de: 1) la función de utilidad por una expresión parecida, pero en la que se sustituyen los niveles en los estados por los cambios en dichos niveles, y 2) las probabilidades, por ponderaciones más generales dadas por funciones de esas probabilidades (que no necesariamente suman uno). En ese enfoque, la función objetivo debe ser tal que la función (elemental) de preferencias sea cóncava para ganancias, y convexa para pérdidas, y la compensación requerida por una pérdida sea mayor que la voluntad de pagar por una ganancia (existen otras formulaciones, que incluyen por ejemplo el modelo de Machina (1982) en el que se deja de lado el axioma de independencia entre alternativas irrelevantes).
La experimentación ha puesto en duda entonces la generalidad de la presentación de Von Neumann y Morgenstern, ya que aunque los experimentos (como los de la paradoja de Allais) refuten las predicciones de la teoría, y se haga ver a los agentes que han entrado en contradicción, ellos insisten en sostener su decisión. Esto desafía el programa de la utilidad esperada como uno educativo y correctivo de la irracionalidad – Hey (1989).
Un campo promisorio y de rápido progreso para el uso de experimentos es el del estudio de cómo tener en cuenta las preferencias de los demás (reciprocidad estratégica) en el propio proceso de toma de decisiones o para crear una reputación que dé ventajas de largo plazo –véase una síntesis en Sobel (2005). La experimentación podría ayudar a crear lazos estables, a diseñar instituciones y a resolver problemas como el del “holdup”.
Pero además, el progreso tecnológico ha hecho que el costo de disponer de métodos de cómputo haya bajado mucho. Tanto que casi es impensable actualmente trabajar sin una computadora. Por lo tanto, la evaluación ex ante de las políticas económicas, el ensayo previo, también es mucho más barato y se ha generalizado. Podríamos decir que forma parte de la Microeconomía Experimental y de la Economía del Diseño en el sentido de Roth (2002). La literatura económica es abundante hoy sobre temas de Equilibrio General Computado. Un Modelo de Equilibrio General Computado (MEGC) es una representación numérica de una estructura analítica que supuestamente replica una economía , y puede reproducir un equilibrio inicial (gracias a la calibración inicial de parámetros libres). Los trabajos pioneros fueron los de Scarf (1967) y de Rolf Mantel. Los nuevos instrumentos computacionales permitieron hacer aplicación del lema de Sperner (piedra básica del teorema de Brouwer de punto fijo) para aplicar algoritmos simpliciales: los que buscan el equilibrio mediante una subdivisión del simplex de precios atribuyendo números a los vértices según
...