1 / 41

Leyes de potencia

Leyes de potencia. Hemos visto que las leyes de potencia (power laws) suelen aparecer en redes complejas. Típicamente, en la distribución de grados Cuando hay modularidad jerárquica, en la distribución de clustering en función del grado A veces en la distribución de betweenness.

Download Presentation

Leyes de potencia

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Leyes de potencia • Hemos visto que las leyes de potencia (power laws) suelen aparecer en redes complejas. • Típicamente, en la distribución de grados • Cuando hay modularidad jerárquica, en la distribución de clustering en función del grado • A veces en la distribución de betweenness. • También aparecen en tamaños de cascadas de fallas, tamaños de componentes conexas, distribución de pesos, etc etc etc.

  2. Leyes de potencia Ergo: es importante saber distinguirlas, estimar su exponente, y (por si sirve) conocer algunos mecanismos que las generan. Lo básico: x e y están relacionadas por una ley de potencia, si se cumple Una variable aleatoria [continua] sigue una ley de potencia si su densidad de probabilidad es

  3. y por lo tanto tenemos la recta en log-log: y la invarianza de escala: La función acumulada será Leyes de potencia

  4. Leyes de potencia Problema: la densidad explota cuando x0. Solución: por lo general se asume un valor mínimo xmin. En tal caso, y la función de densidad pasa a ser

  5. Leyes de potencia • Cuando la variable es discreta: • La densidad es nuevamente proporcional a x-a. • La distribución acumulada ahora es simplemente la suma. • El xmin suele ser 1 (ojo: no puede ser 0). • Con frecuencia sirve, pero no es riguroso: tratar la variable como si fuera una muestra de una v.a. continua (y usar la fórmula para la acumulada, etc.)

  6. Leyes de potencia “célebres” • Ley de Zipf • Georges Zipf, lingüista, intentó determinar el “tamaño” (en realidad, frecuencia) de la 3ª, 8ª o 100ª palabra más común del inglés. • Lo que encontró (su “ley”) indica que la frecuencia es inversamente proporcional al ranking: con el exponente muy cerca de 1. Luego se confirmó en otros idiomas.

  7. Leyes de potencia “célebres” • Ley de Pareto • Vilfredo Pareto, economista, estudió la distribución del ingreso. • La ley de Pareto se expresa en términos de la distribución acumulada (probabilidad de que alguien gane x o más): en la notación de leyes de potencia, ese k es k = a-1, donde a es el exponente de la ldp.

  8. Leyes de potencia “célebres” • Relación entre ambas: • Si despreciamos los “empates”, decir “el r-ésimo tiene x” es equivalente a decir “r tienen x o más”. • Ergo, Zipf y Pareto describen la misma cosa, pero con los ejes invertidos. • Zipf hubiese dicho: • “el ingreso de la r-ésima persona con mayor ingreso es x~r-” • mientras que Pareto dice • “la fracción de gente que gana x o más es r~x-1/ ”

  9. Leyes de potencia “célebres” • Para distribuciones de Pareto suele mencionarse el “principio de Pareto” o “regla de 80 y 20”. • Pareto observó que el 80% de la tierra en Italia pertenecía al 20% de la gente. • No hay nada mágico en el nº 80; es simplemente una regla mnemotécnica. Se aplica en negocios: el 80% de las ventas viene del 20% de los clientes. • A nivel mundial, hoy, se cumple en la distribución de ingreso.

  10. Leyes de potencia “célebres” • Microsoft: eliminando el 20% de bugs más frecuentes, se evita el 80% de las BSD. • El 80% de los crímenes los comete el 20% de los criminales. • Etc, etc.

  11. Leyes de potencia por todos lados

  12. Leyes de potencia por todos lados Ejemplos de algunos mecanismos que producen LDP: Si Y tiene distribución exponencial, fY(y)~ eay y otra variable X depende exponencialmente de Y, X ~ ebY entonces X sigue una LDP, fX(x) ~ x-(1+a/b)

  13. Leyes de potencia por todos lados • Monos tipeando al azar (Miller, 1957). • Supongamos que aprietan el espacio con probabilidad q. • El resto de las teclas son equiprobables, (1-q)/m. • La frecuencia de las palabras generadas sigue una LDP. No es aplicable al lenguaje, pero sirve como modelo nulo.

  14. Leyes de potencia por todos lados • Minimización de esfuerzo. • El costo de enviar la palabra j-ésima en ranking de frecuencia es (bajo una codificación razonable) • El costo medio de la comunicación será • El contenido promedio de información en un mensaje es • Al minimizar el costo por unidad de información, C/H,

  15. Leyes de potencia por todos lados • Fenómenos críticos: • En las cercanías de un punto crítico (donde se produce un cambio de fase), las cantidades por lo general escalan como leyes de potencia. Probabilidad p de que una celda este ocupada. ¿Cuál es el tamaño medio de los clusters?

  16. Leyes de potencia por todos lados pc = 0.5927462… • Si p < pc, el tamaño medio es independiente del tamaño de la grilla. • Si p > pc, el tamaño medio diverge (es del tamaño de la grilla). • Para p=pc, hay LDP de tamaños de clusters.

  17. Leyes de potencia por todos lados • Criticalidad auto-organizada: • Supongamos que en cada instante t=0,1,..., puede aparecer un árbol en cada celda con probabilidad p. • Supongamos además que con probabilidad q, aparecen incendios (y queman todo el cluster).  El sistema se estabiliza en un punto crítico, así que la distribución de tamaño de los incendios sigue una LDP.

  18. Leyes de potencia por todos lados • Otro mecanismo, que es el que ya vimos (via Barabasi-Albert): rich get richer. • Sugerido por primera vez por Yule para la distribución de la cantidad de especies, dentro de los géneros biológicos. • Supone que un genero adquiere especies nuevas con probabilidad proporcional a su tamaño. • Cada m especies nuevas, la m+1-ésima crea un nuevo género. • El resultado es que el tamaño de los géneros sigue

  19. Leyes de potencia por todos lados • Price, en 1965, sugiere algo equivalente para citaciones de papers: • Cada paper nuevo cita (en promedio) m papers. • La probabilidad de citar un paper es proporcional a la cantidad de citas que tiene, k. • En realidad es proporcional a k+1: se agrega una “cita por defecto” para que los recién llegados puedan competir. • El resultado también es

  20. Leyes de potencia por todos lados El modelo de Barabasi-Albert aplica básicamente la misma idea, al hacer preferential attachment (“enlace preferencial”). Aprovechemos de ver un modelo que también genera un grafo tipo BA: modelo LCD (linearized chord diagram) de Bollobas-Riordan. Consideremos 2n nodos puestos en orden lineal:

  21. Modelo LCD Generamos un matching al azar entre los nodos

  22. Modelo LCD De izquierda a derecha, identificamos todos los extremos izquierdos hasta que topemos el primer extremo derecho; ahí cortamos. Luego aplicamos lo mismo sobre lo que sigue.

  23. Modelo LCD • El resultado son grafos equivalentes a los del modelo de enlace prefencial. • Agregar un nuevo nodo: sería agregar un nuevo match.

  24. Estimación ¿Cómo estimar el exponente de una LDP? Caso ideal:

  25. Estimación Caso real: Hay muchas observaciones con valores pequeños… pero no tantas como podría haber Ruido en la cola En un sistema finito, tenemos muy pocas observaciones con valores de verdad grandes

  26. Estimación fitted  true 

  27. Estimación Primera idea: juntar los valores en intervalos (binning).

  28. Menos ruido en la cola Estimación Refinamiento del binning: usar bins de tamaño exponencial. Los intervalos serán de tamaños (p.ej.) 2, 4, 8, 16, 32... • Se obtienen puntos equiespaciados en el log-log. • Problema: se pierde información.

  29. Estimación Segundo truco: pasar a la acumulada, usando el hecho de que

  30. Estimación Cantidad de visitantes a sitios de AOL, 1997 Datos en bruto:

  31. Estimación Binning lineal, escala log log Recta de exponente 1.17. Claramente mala.

  32. Estimación Binning exponencial

  33. Estimación Pasando a acumulada • Puede que sean dos LDP de exponente distinto, según rango. • La cola cae con exponente más bien cercano a 2.4.

  34. Estimación Pero además: ¿desde dónde rige la ley de potencia? xmin

  35. scientific papers 1981-1997 AOL users visiting sites ‘97 Moby Dick bestsellers 1895-1965 AT&T customers on 1 day California 1910-1992

  36. wars (1816-1980) Moon Solar flares richest individuals 2003 US family names 1990 US cities 2003

  37. Estimación ¿Cómo calcular el exponente? Naïve: mínimos cuadrados (después de aplicar log/log).  NO ES bueno. Mucho mejor: máxima verosimilitud

  38. Estimación • ¿Cómo elegir el punto de corte (el xmin)? • Para efectos prácticos, suele ser “a ojo”, o bien probando con varios y viendo cuál da el mejor ajuste. • ¿El mejor ajuste? • Es necesario comparar qué tan bueno es el ajuste con distintos xmin. • La forma de hacerlo es también la que se necesita para comparar la LDP con otras posibles distribuciones (exponencial, lognormal, etc.)

  39. Estimación • Para evaluar si una muestra viene o no de una cierta distribución, se usa Kolmogorov-Smirnov. • Se compara la función de distribución de la supuesta ley, con la empírica. • Se evalúa la máxima diferencia (en módulo). donde FX es la del modelo, FY es la de los datos. Se calcula D = max(D+,D-).

  40. Estimación Kolmogorov-Smirnov

  41. Estimación • Si de verdad uno quiere ser serio para estimar una LDP, leer • “Power-law distributions in empirical data” • A. Clauset, C. Shalizi y M. Newman • http://arxiv.org/abs/0706.1062 • Preview en • http://cscs.umich.edu/~crshalizi/weblog/491.html • “So You Think You Have a Power Law — Well Isn't That Special?” • y usar el software disponible en • http://www.santafe.edu/~aaronc/powerlaws/

More Related