Your Federal Quarterly Tax Payments are due April 15th Get Help Now >>

Independent component analysis of bio-medical signals by akimbo

VIEWS: 195 PAGES: 46

									   Independent
component analysis
  of bio-medical
      signals
  Sebino Stramaglia
   TIRES – BARI
     Rappresentazioni lineari di dati
              multivariati
      xi (t ) i  1,...,m t  1,...,T
                 m                              m
      xi (t )   Ai s ys (t ) ;     ys (t )  Ws i xi (t )
                s 1                            i 1

   Approccio statistico: trattare xi (t ) come un insieme di T
    realizzazioni di una variabile random ad m componenti.
    Determinare la matrice W in base alle desiderate proprietà
    statistiche delle variabili trasformate y s (t )
   Scopo: mettere in evidenza i fattori o componenti che
    determinano la struttura dei dati.
 Esempio: modi normali

xi (t )    s cos( s t   s )ns i
           s
    
con ns ortonormali
 xi (t ) x j (t )    s2 nsi nsj
                       s

Wsi  nsi  ys (t )   s cos( s t   s )
      Principal Component
            Analysis
   W sia una rotazione che rende le nuove
    variabili scorrelate:
  ys (t ) ys ' (t )    ys (t )  ys ' (t )  0
Matrice di covarianza
  Cij  xi (t ) x j (t )    xi (t )  x j (t ) 
                          
 Gli autovettori n s forniscono le proiezioni
 scorrelate e vengono ordinati in base al
 modulo del corrispondente autovalore  s
 che ne determina la relativa importanza
                 PCA
 Data compression
 Feature Extraction

 Data visualization (first two PCs)
                     PCA
   Assenza di Correlazione equivale
    all’Indipendenza Statistica solo per
    distribuzioni Gaussiane.
   PCA tiene conto solo della statistica al
    secondo ordine del data-set.
   La matrice W è vincolata ad essere
    ortogonale (rotazione).
   L’interesse di una direzione è legata alla
    varianza dei dati quando sono proiettati su
    di essa.
Cocktail Party Problem
    Cocktail Party Problem
      x1 (t )  A11s1 (t )  A12 s2 (t )
      x2 (t )  A21s1 (t )  A22 s2 (t )
   Problema: determinare i segnali s1 (t ) e s2 (t ) e la
    matrice di mixing a ij
        
    s W x      W  A1
   ICA: determina W sfruttando il fatto
    che s1 (t ) e s2 (t ) sono statisticamente indipendenti
    Independent Component Analysis:
     estimation of a generative model

xi  ai1s1  ai 2 s2  ...  aim sm , i  1,..., m
   Le s k sono statisticamente indipendenti
   Le comp. Ind. hanno distribuzioni non Gaussiane
   La matrice di mixing è quadrata ed invertibile
                                       
                                   s W x
   Sotto queste ipotesi la stima del modello ICA è un
    problema matematicamente ben posto!
                               ICA
   Indipendenza è più che assenza di correlazioni

      p( s1 , s2 ,..., sm )  p1 ( s1 ) p2 ( s2 )... pm ( sm )

   Distribuzioni non Gaussiane caratterizzano una
    gran varietà di fenomeni in natura
   La matrice di mixing W non è necessariamente
    ortogonale. Le colonne forniscono le forme delle
    componenti indipendenti
    Ambiguità (simmetrie) dell’ICA
   Ogni componente indipendente può essere
    riscalata per un fattore di scala arbitrario.
   L’ordine delle componenti indipendenti è arbitrario
    (permutazioni).
   Preprocessing: centering e poi whitening.
   Dopo il whitening la matrice W può allora essere
    supposta ortogonale, cioè una rotazione.
   Perché le variabili gaussiane sono proibite?
      Perché le variabili
    Gaussiane sono proibite
   Perché il problema delle ICA avrebbe
    ulteriori simmetrie di mixing.

                               
     x  A s  ( A R ) ( R s )  A s 
                          1
         ICA=Massimizzare la Non
              Gaussianità

                                  
       xAs              y  W x  WA s

   Giustificazione Intuitiva col Teorema del
    Limite Centrale: una combinazione lineare
    di variabili non Gaussiane è più Gaussiana
    delle variabili di partenza.
   La non gaussianità delle y è massima
    quando W è l’inversa di A.
     Misure di non Gaussianità I:
               Kurtosis

                                          0.8




kurt( y )  E ( y 4 )  3( E ( y 2 )) 2   0.7



                                          0.6



                                          0.5



                                          0.4



                                          0.3




   Kurt =0 Gaussiana                     0.2



                                          0.1

   Kurt<0 Subgaussiana                    0
                                            -4   -3   -2   -1   0   1   2   3   4


   Kurt>0 Supergaussiana
     Misure di non Gaussianità II:
             Negentropy

       S Y    p (Y  ai ) log p (Y  ai )
                 i



 A fissata statistica fino al secondo
  ordine (matrice di covarianza), le
  distribuzioni gaussiane hanno
  l’entropia massima.
 J(Y)=S(Ygauss) –S(Y)
   Approssimazioni della
       Negentropy

                                   
J (Y )  E( g (Y ))  E( g (Ygauss ))
                                        2



 g (Y )  Y 4  kurtosis
           1
  g1 (Y )  log cosh(aY )
           a

                 Y2 
  g 2 (Y )  exp  
                 2a 
                    
     Nongaussianità significa
            Indipendenza
             
        y  W x  J W 
 Sulla base del data-set si ha una stima
  della negentropy J[W].
 La matrice W viene variata per
  massimizzare J; gradiente
  discendente, iterazioni punto fisso,
  etc…
    Altri modi di vedere ICA

 ICA  minimizzando la mutua
  informazione
 ICA come maximum likelihood

 ICA come infomax
Relazione con Projection
        Pursuit
   La struttura nei dati è legata alla non
    gaussianità.
                   10


                    8


                    6


                    4


                    2


                    0


                    -2


                    -4


                    -6


                    -8


                   -10
                     -10   -8   -6   -4   -2   0   2   4   6   8   10
ICA per separare ECG della mamma e del feto
 Feature extraction di immagini

   Trasformazioni lineari
    xi   aik sk ; sk   Wk i xi
         k               i

 W tipicamente è indipendente dai dati:
  Fourier, Wavelets, Gabor, Haar, …..
 ICA: la trasformazione (filtro) W è
  costruita in base alle proprietà
  statistiche del data-set.
       Cammino degli stimoli visuali
   Celle neuronali nella retina, i cui assoni formano il
    nervo ottico.
   Lo stimolo visuale passa nella regione LGN del
    cervello e poi nella corteccia visuale primaria (V1),
    ove l’informazione visuale viene processata ed
    interpretata.
   Neuroni della retina rispondono al contrasto locale
    e non al livello assoluto di illuminazione.
   I campi recettivi dei neuroni nella V1 sono
    spazialmente localizzati, orientati e passabanda.
   Cosa fanno i neuroni?
         Cosa fanno i neuroni?
   Sembra che i neuroni della        Quando una immagine
    retina rimuovano le                viene presentata alla V1,
    correlazioni tra pixel primi       pochissimi neuroni si
    vicini nelle immagini,             attivano, la quasi totalità
    decorrelando l’output che          resta silente.
    viene mandato attraverso il       SPARSE CODING:i dati
    nervo ottico.                      vengono rappresentati con
   COMPACT CODING: i dati             un numero minimo di unità
    vengono rappresentati con          attive.
    un numero minimo di unità         Sparseness è un concetto
                                       legato all’indipendenza
                                       statistica.
fMRI: osservando il
 cervello al lavoro
fMRI: Risonanza magnetica
         funzionale
                    Visual
                    cortex




        Auditory
        cortex
      General linear model (GLM)
• fMRI time series: Y1 ,…,Ys ,…,YN
          – Acquisite ai tempi t1,…,ts,…,tN
• Modello: Combinatione lineare di basis functions
        Ys =  1 f 1(ts ) + …+  l f l(ts ) + … +  L f L(ts ) + s
• f l (.): basis functions
          – “reference waveforms”
          – dummy variables
•    l : parametri (forme)
          – Ampiezze delle basis functions (regression slopes)
•   s : errori residui: s ~ N(0,2)
          – Identicamente distribuiti
          – Independenti (Generalised Linear Model  GLM)
Statistical parametric map
             ICA e fMRI
 Principio di modularità del cervello.
 ICA determina componenti
  spazialmente indipendenti.
 Le varie componenti indipendenti
  hanno un andamento temporale che
  non è fissato a priori, ma è appreso dai
  dati.
          Il Cervello e la sua
Attività Ritmica di Fondo.
Attività ritmica di fondo:

   Banda Teta [3.5Hz 7.5Hz]

   Banda Alfa [7.5Hz 12.5Hz]

   Banda Beta1 [12.5Hz 22Hz]

   Banda Beta2 [22Hz 32Hz]

   Banda Gamma [32Hz 60Hz]
Corteccia cerebrale
MEG e EEG
Esperimento di stimolazione
     somatosensoriale
   Il nervo mediano
    del soggetto è
    stato stimolato 74
    volte con un
    impulso elettrico;
    con interstimolo
    casuale, fra 1.3sec.
    e 2.4sec.
Tracciato del segnale
    di un canale:
Estrazione del SEF:
SEF per i segnali non
       filtrati:
Eliminazione degli artefatti
Eliminazione degli artefatti
Localizzazione delle sorgenti




   Modello: risposta allo stimolo descritta da un insieme di dipoli
    di corrente
   Problema mal posto
   ICA: ad ogni componente indipendente corrisponde un dipolo
   ICA preprocessing: ‘source identification’
   Successivamente ‘source localization’
     Altre applicazioni di ICA
   Audio separation.
   Telecomunicazioni: code division multiple
    access (CMDA).
   Speckle removal in immagini RADAR.
   Rivelare fattori nascosti in dati finanziari.
   Time series predictions.
   Analisi di documenti.
     Estensioni di ICA

 Independent   Subspace
  Analysis
 Topographic Independent
  Component Analysis
               WEB links
   http://www.cis.hut.fi/projects/ica/
   http://www.sccn.ucsd.edu/~scott/tutorial/icat
    utorial1.html
   http://www.cnl.salk.edu/~tony/ica.html
   http://web.media.mit.edu/~paris/ica.html

								
To top