1 / 65

7. El TDA Diccionario

7. El TDA Diccionario. ¿Qué es un Diccionario ? . Dado un conjunto de elementos {X 1 , X 2 , ..., X N } , todos distintos entre sí, se desea almacenarlos en una estructura de datos que permita la implementación eficiente de las operaciones:

grady
Download Presentation

7. El TDA Diccionario

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 7.El TDA Diccionario

  2. ¿Qué es un Diccionario ? • Dado un conjunto de elementos {X1, X2, ..., XN}, todos distintos entre sí, se desea almacenarlos en una estructura de datos que permita la implementación eficiente de las operaciones: • búsqueda(X): dado un elemento X, conocido como llave de búsqueda, encontrarlo dentro del conjunto o decir que no está. • inserción(X): agregar un nuevo elemento X al conjunto. • eliminación(X): eliminar el elemento X del conjunto. • Estas operaciones describen al TDA diccionario. En el presente capítulo se verán distintas implementaciones de este TDA y se estudiarán las consideraciones de eficiencia de cada una de dichas implementaciones.

  3. Implementaciones sencillas • Una lista enlazada, con la inserción de nuevos elementos al comienzo. • búsqueda: O(n) (búsqueda secuencial). • inserción: O(1) (insertando siempre al comienzo de la lista). • eliminación: O(n) (búsqueda + O(1)). • Arreglo ordenado: inserción y eliminación ineficientes, puesto ("correr" los elementos) • Sin embargo, la ventaja que tiene mantener el orden es que es posible realizar una búsqueda binaria para encontrar el elemento buscado.

  4. Programacion de la Búsqueda binaria Invariante Inicialmente: i = 0 y j = n-1. En cada iteración: Si el conjunto es vacío (j-i < 0), o sea si j < i, entonces el elemento x no está en el conjunto (búsqueda infructuosa). En caso contrario, m = (i+j)/2. Si x = a[m], el elemento fue encontrado (búsqueda exitosa). Si x < a[m] se modifica j = m-1, sino se modifica i = m+1 y se sigue iterando.

  5. Programacion de la Búsqueda binaria publicintbusquedaBinaria(int []a, int x) { int i=0, j=a.length-1; while (i<=j) { int m=(i+j)/2; if (x==a[m]) return m; elseif (x<a[m]) j=m-1; else i=m+1; } return NO_ENCONTRADO; // NO_ENCONTRADO se define como -1 }

  6. Eficiencia de la Búsqueda binaria • Todo algoritmo de búsqueda basado en comparaciones corresponde a algún árbol de decisión. • Cada nodo de dicho árbol corresponde al conjunto de elementos candidatos en donde se encuentra el elemento buscado, y que es consistente con las comparaciones realizadas entre los elementos. Los arcos del árbol corresponden a los resultados de las comparaciones, que en este caso pueden ser mayor que o menor que el elemento buscado, es decir, es un árbol de decisión binario. • El número de comparaciones realizadas por el algoritmo de búsqueda es igual a la altura del árbol de decisión (profundidad de la hoja más profunda).

  7. Eficiencia de la Búsqueda binaria Lema: sea D un árbol binario de altura h. D tiene a lo más 2h hojas. Demostración: por inducción. Lema: un árbol binario con H hojas debe tener una profundidad de al menos Demostración: directo del lema anterior. Si n es el número de nodos de elementos del conjunto, el número de respuestas posibles (hojas del árbol de decisión) es de n+1, el lema anterior implica que el costo en el peor caso es mayor o igual que el logaritmo del número de respuestas posibles. Corolario: cualquier algoritmo de búsqueda mediante comparaciones se demora al menos preguntas en el peor caso. Por lo tanto, la búsqueda binaria es óptima.

  8. Métodos auto-organizantes • Idea: cada vez que se accede a un elemento Xk se modifica la lista para que los accesos futuros a Xk sean más eficientes. Algunas políticas de modificación de la lista son: • TR (transpose): se intercambia de posición Xk con Xk-1 (siempre que k>1). • MTF (move-to-front): se mueve el elemento Xk al principio de la lista. • Se puede demostrar que Costooptimo<=CostoTR<=CostoMTF<=2Costooptimo.

  9. AVL-Trees (Adelson-Velskii & Landis, 1962) In normal search trees, the complexity of find, insert and delete operations in search trees is in the worst case: (n). Can be better! Idea: Balanced trees. Definition: An AVL-tree is a binary search tree such that for each sub-tree T ' = < L, x, R >| h(L) - h(R) |  1 holds (balanced sub-trees is a characteristic of AVL-trees). The balance factor or height is often annotated at each node h(.)+1.

  10. |Height(I) – hight(D)| < = 1 Thisisan AVL tree

  11. Thisis NOT an AVL tree (node * doesnotholdtherequiredcondition)

  12. Goals 1. How can the AVL-characteristics be kept when inserting and deleting nodes? 2. We will see that for AVL-trees the complexity of the operations is in the worst case = O(height of the AVL-tree) = O(log n)

  13. PreservationoftheAVL-characteristics After inserting and deleting nodes from a tree we must procure that new tree preserves the characteristics of an AVL-tree: Re-balancing. How ?: simple and double rotations

  14. Only 2 cases (an their mirrors) • Let’s analyze the case of insertion • The new element is inserted at the right (left) sub-tree of the right (left) child which was already higher than the left (right) sub-tree by 1 • The new element is inserted at the left (right) sub-tree of the right (left) child which was already higher than the left (right) sub-tree by 1

  15. Rotation (for the case when the right sub-tree grows too high after an insertion) Istransformedinto

  16. Double rotation (for the case that the right sub-tree grows too high after an insertion at its left sub-tree) Double rotation Istransformedinto

  17. b First rotation a c W x y Z new a Second rotation b W c x new y Z

  18. Re-balancing after insertion: After an insertion the tree might be still balanced or: theorem: After an insertion we need only one rotation of double-rotation at the first node that got unbalanced * in order to re-establish the balance properties of the AVL tree. (* : on the way from the inserted node to the root). Because: after a rotation or double rotation the resulting tree will have the original size of the tree!

  19. The same applies for deleting • Only 2 cases (an their mirrors) • The element is deleted at the right (left) sub-tree of which was already smaller than the left (right) sub-tree by 1 • The new element is inserted at the left (right) sub-tree of the right (left) child which was already higher that the left (right) sub-tree by 1

  20. The cases Deleted node 1 1 1

  21. Re-balancing after deleting: After deleting a node the tree might be still balanced or: Theorem: after deleting we can restore the AVL balance properties of the sub-tree having as root the first* node that got unbalanced with just only one simple rotation or a double rotation. (* : on the way from the deleted note to the root). However: the height of the resulting sub-tree might be shortened by 1, this means more rotations might be (recursively) necessary at the parent nodes, which can affect up to the root of the entire tree.

  22. About Implementation • While searching for unbalanced sub-tree after an operation it is only necessary to check the parent´s sub-tree only when the son´s sub-tree has changed it height. • In order make the checking for unbalanced sub-trees more efficient, it is recommended to put some more information on the nodes, for example: the height of the sub-tree or the balance factor (height(left sub-tree) – height(right sub-tree)) This information must be updated after each operation • It is necessary to have an operation that returns the parent of a certain node (for example, by adding a pointer to the parent).

  23. Complexity analysis– worst case Be h the height of the AVL-tree. Searching: as in the normal binary search tree O(h). Insert: the insertion is the same as the binary search tree (O(h)) but we must add the cost of one simple or double rotation, which is constant : also O(h). delete: delete as in the binary search tree(O(h)) but we must add the cost of (possibly) one rotation at each node on the way from the deleted node to the root, which is at most the height of the tree: O(h). All operations are O(h).

  24. Calculating the height of an AVL tree Principle of construction Be N(h) the minimal number of nodes In an AVL-tree having height h. N(0)=1, N(1)=2, N(h) = 1 + N(h-1) + N(h-2) for h  2. N(3)=4, N(4)=7 remember: Fibonacci-numbers fibo(0)=0, fibo(1)=1, fibo(n) = fibo(n-1) + fibo(n-2) fib(3)=1, fib(4)=2, fib(5)=3, fib(6)=5, fib(7)=8 By calculating we can state: N(h) = fibo(h+3) - 1 0 1 2 3

  25. Be n the number of nodes of an AVL-tree of height h. Then it holds that: n  N(h) , Remember fn =(1 /sqrt(5)) (Ф1n - Ф2n) withФ1= (1+ sqrt(5))/2 ≈ 1.618 Ф2= (1- sqrt(5))/2 ≈ 0.618 we can now write nfibo(h+3)-1 = (Ф1 h+3 – Ф2h+3 ) / sqrt(5) – 1  (Ф1h+3/sqrt(5)) – 3/2, thus h+3+log Ф1(1/sqrt(5))  log Ф1(n+3/2), thus there is a constant c with h log Ф1(n) + c = log Ф1(2) • log2(n) + c = 1.44… • log2(n) + c = O(log n).

  26. Arboles B (External Search) • The algorithms we have seen so far are good when all data are stored in primary storage device (RAM). Its access is fast(er) • Big data sets are frequently stored in secondary storage devices (hard disk). Slow(er) access (about 100-1000 times slower) Access: always to a complete block (page) of data (4096 bytes), which is stored in the RAM For efficiency: keep the number of accesses to the pages low!

  27. Arboles 2-3 • Los nodos internos pueden contener hasta 2 elementos • por lo tanto un nodo interno puede tener 2 o 3 hijos, dependiendo de cuántos elementos posea el nodo.

  28. Propiedad • todas las hojas están a la misma profundidad, es decir, los árboles 2-3 son árboles perfectamente balanceados • La altura está acotada por

  29. Inserción • se realiza una búsqueda infructuosa y se inserta dicho elemento en el último nodo visitado durante la búsqueda, • implica manejar dos casos distintos:

  30. Ejemplos

  31. Eliminación • Físicamente se debe eliminar un nodo del último nivel • Si el elemento a borrar está en un nodo interno el valor se reemplaza por el inmediatamente anterior/posterior • Estos necesariamenteestán en último nivel

  32. Caso simple • El nodo donde se encuentra Z contiene dos elementos. En este caso se elimina Z y el nodo queda con un solo elemento.

  33. Caso complejo 1 • El nodo donde se encuentra Z contiene un solo elemento. En este caso al eliminar el elemento Z el nodo queda sin elementos (underflow). Si el nodo hermano posee dos elementos, se le quita uno y se inserta en el nodo con underflow.

  34. Caso complejo 2 • Si el nodo hermano contiene solo una llave, se le quita un elemento al padre y se inserta en el nodo con underflow. • Si esta operación produce underflow en el nodo padre, se repite el procedimiento anterior un nivel más arriba. Finalmente, si la raíz queda vacía, ésta se elimina. • Costo de las operaciones de búsqueda, inserción y eliminación en el peor caso: Θ (log(n))

  35. For external search: a variant of search trees: 1 node = 1 page Multiple way search trees!

  36. Multiple way-search trees Definición: An empty tree is a multiple way search tree with an empty set of keys {} . Be T0, ..., Tn multiple way-search trees with keys taken from a common key set S, and be k1,...,kn a sequence of keys with k1 < ...< kn. Then is the sequence: T0 k1 T1 k2 T2 k3 .... kn Tn a multiple way-search trees only when: • for all keys x from T0 x < k1 • for i=1,...,n-1, for all keys x in Ti, ki < x < ki+1 • for all keys x from Tn kn < x

  37. B-Tree Definition A B-Tree of Order m is a multiple way tree with the following characteristics • 1  #(keys in the root)  2m and m  #(keys in the nodes)  2m for all other nodes. • All paths from the root to a leaf are equally long. • Each internal node (not leaf) which has s keys has exactly s+1 children. • 2-3 Trees is a particular case for m=1

  38. Example: a B-tree of order 2:

More Related