1 / 51

Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari

Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari. Daniela Scarcella - Matteo Buffa Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012. Norme – Numero di Condizionamento

wray
Download Presentation

Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Metodo del Gradiente e del Gradiente Coniugatoper la risoluzione di sistemi lineari Daniela Scarcella - Matteo BuffaDipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  2. Norme – Numero di Condizionamento • Norme Vettoriali, Matriciali e Norma dell’Energia • Numero di Condizionamento • Metodi Iterativi • Cenni teorici sui Metodi Iterativi • Costruzione di un Metodo Iterativo • Tecnica generale • Metodo di Richardson • Metodi del Gradiente e del Gradiente Coniugato • Metodo del Gradiente • Metodo del Gradiente Coniugato • Matlab • Gradiente e Gradiente coniugato a confronto • Applicazione tecnica Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  3. Norme – Numero di Condizionamento • Norme Vettoriali, Matriciali e Norma dell’Energia • Numero di Condizionamento • Metodi Iterativi • Cenni teorici sui Metodi Iterativi • Costruzione di un Metodo Iterativo • Tecnica generale • Metodo di Richardson • Metodi del Gradiente e del Gradiente Coniugato • Metodo del Gradiente • Metodo del Gradiente Coniugato • Matlab • Gradiente e Gradiente coniugato a confronto • Applicazione tecnica Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  4. Norme – Numero di Condizionamento • Norme Vettoriali, Matriciali e Norma dell’Energia • Numero di Condizionamento • Metodi Iterativi • Cenni teorici sui Metodi Iterativi • Costruzione di un Metodo Iterativo • Tecnica generale • Metodo di Richardson • Metodi del Gradiente e del Gradiente Coniugato • Metodo del Gradiente • Metodo del Gradiente Coniugato • Matlab • Gradiente e Gradiente coniugato a confronto • Applicazione tecnica Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  5. Norme – Numero di Condizionamento • Norme Vettoriali, Matriciali e Norma dell’Energia • Numero di Condizionamento • Metodi Iterativi • Cenni teorici sui Metodi Iterativi • Costruzione di un Metodo Iterativo • Tecnica generale • Metodo di Richardson • Metodi del Gradiente e del Gradiente Coniugato • Metodo del Gradiente • Metodo del Gradiente Coniugato • Matlab • Gradiente e Gradiente coniugato a confronto • Applicazione tecnica Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  6. Norme – Numero di Condizionamento • Norme Vettoriali, Matriciali e Norma dell’Energia • Numero di Condizionamento • Metodi Iterativi • Cenni teorici sui Metodi Iterativi • Costruzione di un Metodo Iterativo • Tecnica generale • Metodo di Richardson • Metodi del Gradiente e del Gradiente Coniugato • Metodo del Gradiente • Metodo del Gradiente Coniugato • Matlab • Gradiente e Gradiente coniugato a confronto • Applicazione tecnica Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  7. Norme – Numero di Condizionamento • Norme Vettoriali, Matriciali e Norma dell’Energia • Numero di Condizionamento • Metodi Iterativi • Cenni teorici sui Metodi Iterativi • Costruzione di un Metodo Iterativo • Tecnica generale • Metodo di Richardson • Metodi del Gradiente e del Gradiente Coniugato • Metodo del Gradiente • Metodo del Gradiente Coniugato • Matlab • Gradiente e Gradiente coniugato a confronto • Applicazione tecnica Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  8. Norme – Numero di Condizionamento • Norme Vettoriali, Matriciali e Norma dell’Energia • Numero di Condizionamento • Metodi Iterativi • Cenni teorici sui Metodi Iterativi • Costruzione di un Metodo Iterativo • Tecnica generale • Metodo di Richardson • Metodi del Gradiente e del Gradiente Coniugato • Metodo del Gradiente • Metodo del Gradiente Coniugato • Matlab • Gradiente e Gradiente coniugato a confronto • Applicazione tecnica Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  9. Norme Vettoriali Definizione Sia uno spazio vettoriale su . Diciamo che l’applicazione : è una norma su se sono soddisfatti i seguenti assiomi: Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari = (proprietà di omogeneità) (disuguaglianza triangolare) Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 Uno spazio normato è , munito ad esempio della norma p (o norma di Hölder), definita per un vettore di componenti come

  10. Norme Vettoriali Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari • Per p = 1, p = 2 e p = Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  11. Norme Matriciali Indotte Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Una norma matriciale è un’applicazione tale che: Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  12. Norme Matriciali Indotte Sia una norma vettoriale. La funzione È una norma matriciale, che viene detta norma matriciale indotta (o subordinata) o norma matriciale naturale. Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 Importanti esempi di norme matriciali indotte sono le cosiddette norme pdefinite come

  13. Norme Matriciali Indotte La norma 1 e la norma Sono rispettivamente dette norma delle somme per colonna e norma delle somme per riga Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 La norma 2 o norma spettrale Se A è Hermitiana (o, se reale, simmetrica) allora

  14. Norma dell’Energia Se è simmetrica positiva e è l’unica matrice definita positiva soluzione dell’equazione Definisce una norma vettoriale, detta norma dell’energia del vettore . Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  15. Numero di Condizionamento di una matrice Definizione Si definisce numero di condizionamento di una matrice Α essendo una norma matriciale indotta. In generale dipende dalla norma scelta denota il condizionamento in norma di . Per e) sono rispettivamente il massimo ed il minimo valore singolare di . Nel caso di matrici simmetriche definite positive si ha e sono il massimo ed il minimo autovalore di Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  16. Metodi iterativi Si basano sull’idea di calcolare una successione di vettori che godano della proprietà di convergenza. Ci si vorrebbe fermare al minimo per cui si abbia che dove è una tolleranza fissata a priori e è una opportuna norma vettoriale. Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  17. Metodi iterativi I metodi che studieremo sono della forma (1.1) Indichiamo con una matrice quadrata n x n detta matrice di iterazionee con un vettore ottenuto a partire dal termine noto Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 Definizione Un metodo iterativo della forma si dirà consistente con se e solo se e sono tali che , equivalentemente

  18. Metodi iterativi Indichiamo con (1.2) L’errore al passo , la condizione di convergenza (1.0) è equivalente a chiedere che per ogni scelta del vettore iniziale Sottraendodaotteniamo Per simmetrica e definita positiva, vale dove indica il raggio spettrale di ed è il di (Per matrici simmetriche e definite positive esso coincide con il massimo autovalore) Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  19. Metodi iterativi dove indica il raggio spettrale di ed è il di al passo Si dimostra che se il metodo iterativo della forma è consistente, converge alla soluzione per ogni scelta del vettore iniziale Nota: Minore è minore è sarà il numero di iterazioni necessarie a ridurre l’errore iniziale. Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  20. Costruzione di un metodo iterativo Tecnica generale Una tecnica generale per la costruzione di metodi iterativi (lineari) consistenti è basata su una decomposizione additiva, detta splitting, della matrice della forma , dove ed sono due matrici opportune e è non singolare. è anche detta matrice di precondizionamento o precondizionatore. Assegnato si ottiene risolvendo i nuovi sistemi (1.3) La matrice per tali metodi è mentre Indicando con il vettore residuo al passo . Riscriviamo la (1.3) nella forma (1.5) Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  21. Metodi di Richardson Generalizzando la (1.5) , Dove è un parametro di accelerazione (o di rilassamento) dipendente dall’indice di iterazione Ponendo si ha e Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 Se è una matrice non singolare, il metodo di Richardson stazionario è convergente se e solo se

  22. Metodi di Richardson Teorema: Sia una matrice non singolare e supponiamo che abbia autovalori reali positivi, ordinati Il metodo stazionario di Richardson (1.5) converge se e solo se Ponendo Il raggio spettrale della matrice di iterazione (per è minimo se Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  23. Metodo del Gradiente Data una matrice simmetrica definita positiva, la risoluzione del sistema equivale a trovare il punto di minimo della forma quadratica In effetti il gradiente di è dato da (1.7) Di conseguenza, se allora è soluzione del sistema di partenza. Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  24. Metodo del Gradiente Se è soluzione, allora , ovvero è punto di minimo per il funzionale . Osservazione: La precedente relazione è equivalente a Dove indica la norma dell’energia, definita precedentemente Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  25. Metodo del Gradiente Problema: Determinare il punto di minimo di a partire da un punto e scegliere opportune direzioni lungo le quali muoversi per avvicinarsi, il più rapidamente possibilie, alla soluzione . La direzione ottimale che congiunge non è nota a priori. A partire dal punto ci si dovrà muovere lungo una posizione e su questa fissare un nuovo punto dal quale ripetere il procedimento fino a convergenza. Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  26. Metodo del Gradiente Soluzione (steepest descent): Prendere come direzione di discesa quella che massimizza la pendenza, data da . Per la (1.7) si ha che Per questo motivo la direzione del gradiente di coincide con il residuo immediatamente calcolabile dall’iterata corrente. Per calcolare il parametro , si scrive esplicitamente in funzione di un parametro - Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  27. Metodo del Gradiente - Essendo una funzione quadratica rispetto ad , derivando rispetto a ed imponendo l’annullamento della derivata, si trova che il valore cercato per è Nota: è funzione del residuo al passo Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  28. Metodo del Gradiente Il metodo del gradiente dà luogo al seguente algoritmo: Teorema: Sia A simmetrica definita positiva, allora ilmetodo del gradiente converge per ogni valore del dato iniziale e Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  29. Metodo del Gradiente Coniugato • Il metodo del gradiente consta essenzialmente di due fasi: • Scegliere la direzione di discesa (quella del residuo) • L’individuazione lungo tale direzione di un punto di minimo locale per • La seconda fase può essere affrontata indpendentemente dalla prima. • Data una generica direzione , troveremo il valore comequel valore di cheminimizza . • Derivando rispetto ad ed imponendo la condizione di annullamento della derivata prima nel punto di minimo, si ottiene • Nota: la (1.9) si riduce alla (1.8) se Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  30. Metodo del Gradiente Coniugato Come scegliere in modo da accelerare la convergenza? Def: Una direzionesi dice ottimale rispetto ad una direzione se (2.0) Se è ottimale rispetto a tutte le direzioni di uno spazio vettoriale , allora è ottimale rispetto a . Questa definizione è dipendente da e dalla (2.0) discende che . Dalla (2.0) si deduce che ammette un minimo locale lungo per e quindi che la derivata parziale di rispetto a si annulla quando . Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  31. Metodo del Gradiente Coniugato Esistono direzioni di discesa che conservino l’ottimalità delle iterate? Supponiamo di avere e di sapere che è ottimale rispetto ad una direzione . Imponiamo che anche risulti ottimale rispetto a così da ottenere Per conservare la condizione di ottimalità tra un’iterata e l’altra, le direzioni di discesa devono essere tra loro A-ortogonali o A-coniugate, ovvero soddisfare I metodi che utilizzano direzioni di discesa A-coniugate si dicono coniugati. Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  32. Metodo del Gradiente Coniugato Si possono generare automaticamente tali direzioni ponendo inizialmente e cercando le direzioni della forma Dove i parametri sono da determinarsi in modo che Richiedendo che la (2.2) sia soddisfatta per , dalla (2.1) ricaviamo Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  33. Metodo del Gradiente Coniugato Scegliendo come direzioni di discesa le date da (2.1) ed il parametro dato dalla (1.9) si ottiene il metodo del gradiente coniugato. Dato e posto la k-esima iterazione assume la seguente forma per k=0,1,… fino a convergenza Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  34. Metodo del Gradiente Coniugato Teorema: Sia A una matrice simmetrica e definita positiva e siano il massimo ed il minimo dei suoi autovalori. Il metodo del gradiente coniugato per la risoluzione di converge al più in n passi. Inoltre l’errore alla k-esima iterazione (con ) è ortogonale a e Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  35. MatLab – G e GC Algoritmo del Gradiente Prende in Input: % A: Matrice simmetrica e definita positiva % b: Vettore dei termini noti % x: Vettore iniziale % P: Matrice di precondizionamento % tolerance: tolleranza del metodo % maxit:Numero massimo di iterazioni Ritorna in Output: % x: Vettore soluzione trovato % xhistory: Matrice della successione di soluzioni % error: Residuo normalizzato % niter: Numero di iterazioni % flag : Segnala che il metodo ha soddisfatto il test d'arresto Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  36. MatLab – G e GC Algoritmo del Gradiente Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari flag = 0; niter = 1; bnorm = norm( b ); if (bnorm == 0.0 ) bnorm = 1.0; end r = b - A*x; error(niter) = norm( r ) / bnorm; xhistory = zeros(length(x),maxit); xhistory(:,niter) = x; if ( error(niter) < tolerance ) return; end Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  37. MatLab – G e GC Algoritmo del Gradiente for niter = 1:maxit z = P\r; Az = A*z; alpha = (z'*r)/(z'*Az); x = x + alpha*z; r = r - alpha*Az; error(niter+1) = norm(r)/bnorm; xhistory(:,niter+1) = x; if ( error(niter+1) <= tolerance ) error(niter+1) = tolerance; break; end end Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  38. MatLab – G e GC Algoritmo del Gradiente Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari if ( error(niter+1) > tolerance ) flag = 1; end if ( error(niter+1) == 0 ) error(niter+1) = tolerance; end xhistory = xhistory(:,1:niter+1); error = error(:,1:niter+1); end Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  39. MatLab – G e GC Algoritmo del Gradiente Coniugato for niter = 1:maxit z = P\r; if niter > 1 beta = (Ap'*z)/(Ap'*p); p = z - beta*p; else p = z; end Ap = A*p; % vett. ausiliario alpha = (p'*r)/(p'*Ap); x = x + alpha * p; r = r - alpha * Ap; error(niter+1) = norm( r )/bnrm2; xhist(:,niter+1) = x; if ( error(niter+1) <= tol ) error(niter+1) = tol; break; end end Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  40. MatLab – G e GC Risultati A = [8 4; 4 7]; xsol = [-2; 6]; b = A*xsol; x0 = [0;0]; P = eye(length(A)); K2 = cond(A); tol = 10^-10; maxit = 300; Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  41. MatLab – G e GC Risultati A = [8 4; 4 7]; xsol = [-2; 6]; b = A*xsol; x0 = [0;0]; P = eye(length(A)); K2 = cond(A); tol = 10^-10; maxit = 300; Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  42. MatLab – G e GC Risultati A = [8 4; 4 7]; xsol = [-2; 6]; b = A*xsol; x0 = [0;0]; P = eye(length(A)); K2 = cond(A); tol = 10^-10; maxit = 300; Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  43. Applicazione in ImageProcessing - Inpainting • Data un’immagine in input: • si seleziona la regione obiettivo Ω • si specificata la dimensione k del patch Ψ Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari • Nel corso dell’algoritmo: • ogni pixel mantiene una valore di colore e un valore di confidenza • ai patch lungo δΩ viene dato un valore di priorità temporaneo • Poi l’algoritmo itera i seguenti tre passi fino a quando tutti i pixel non vengono riempiti: • Calcolo della priorità dei patch • Propagazione dell’informazione di tessitura e struttura • 3) Aggiornamento dei valori di confidenza Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  44. Applicazione in ImageProcessing - Inpainting • Strategia di riempimento dipendente completamente dai valori di priorità assegnati ad ogni patch nel fronte di riempimento. • Il calcolo della priorità è influenzato dai patch che: • 1) sono sulla continuazione di bordi netti e • 2) sono circondati da pixel con elevata confidenza. Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari • La priorità P(p) è calcolata per ogni patch del fronte di riempimento, con patch distinti per ogni pixel sul confine della regione obiettivo. Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 Dato un patch Ψp centrato nel punto p per qualche si definisce la sua prioritàP(p) come il prodotto di due termini: con C(p) termine di confidenza e D(p) termine dei dati

  45. Applicazione in ImageProcessing - Inpainting Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 Durante l’inizializzazione, la funzione C(p) è settata a:

  46. Applicazione in ImageProcessing - Inpainting • Propagazione dell’informazione di tessitura e struttura • Dopo aver calcolato tutte le priorità del fronte di riempimento, viene trovato il patch con la massima priorità, • Si cerca nella regione sorgente il patch che è più simile a Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 • Avendo trovato il campione sorgente si copiano i dati dell’immagine • da a

  47. Applicazione in ImageProcessing - Inpainting • Aggiornamento dei valori di confidenza • Dopo che il patch è stato riempito con nuovi valori di pixel, nell’area delimitata da la confidenza C(p) viene aggiornata • come segue: Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012 Regola di aggiornamento dei campioni => al procedere del riempimento, i valori di confidenza diminuiscono, indicando che si è meno sicuri dei valori dei colori dei pixel vicino il centro della regione obiettivo.

  48. Applicazione in ImageProcessing – Inpainting • Risultati Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  49. Applicazione in ImageProcessing – Inpainting • Risultati Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

  50. Applicazione in ImageProcessing – Inpainting • Risultati Metodo del Gradiente e del Gradiente Coniugato per la risoluzione di sistemi lineari Daniela Scarcella - Matteo Buffa - Dipartimento di Matematica e Informatica Università di Catania Seminario di Metodi Matematici per l’Ottimizzazione, 2012

More Related