Vers un nouvel empirisme l ancien et le nouvel empirisme
This presentation is the property of its rightful owner.
Sponsored Links
1 / 27

Vers un nouvel empirisme: l’ancien et le nouvel empirisme PowerPoint PPT Presentation


  • 67 Views
  • Uploaded on
  • Presentation posted in: General

Vers un nouvel empirisme: l’ancien et le nouvel empirisme. John Goldsmith Université de Chicago CNRS MoDyCo. L’ancien empirisme et l’ancien rationalisme. Le nouvel empirisme. Definir le corpus (les donnés). Laisser à la Nature de la marge pour qu’Elle puisse nous parler.

Download Presentation

Vers un nouvel empirisme: l’ancien et le nouvel empirisme

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Vers un nouvel empirisme l ancien et le nouvel empirisme

Vers un nouvel empirisme:l’ancien et le nouvel empirisme

John Goldsmith

Université de Chicago

CNRS MoDyCo


L ancien empirisme et l ancien rationalisme

L’ancien empirisme etl’ancien rationalisme


Le nouvel empirisme

Le nouvel empirisme

Definir le corpus (les donnés).

Laisser à la Nature de la marge pour qu’Elle puisse nous parler.

Trouver l’hypothèse la plus probable, étant donnés les faits que la Nature nous a octroyés.

Conceptuellement similaire à la grammaire générative classique, mais supérieure de deux façons.


Superieur de deux fa ons

Superieur de deux façons?

  • La notion de “confirmation de la grammaire par les faits” devient explicitée pour la premiere fois.

  • Il n’est pas nécessaire d’éxpliciter des contraintes sur grammaires possibles: la complexité algorithmique fait tout.


Feuille de route

Feuille de route

  • Une analyse probabiliste, du point de vue formelle

  • Le nouvel empirisme:

    • Trouver l’hypothèse la plus probable, étant donnés les faits: maximiser pr (H|D)

  • Minimiser -1 * log pr (H|D)

  • Approches bayésiennes: complexité du modèle (grammaire) et probabilité des données


Vers un nouvel empirisme l ancien et le nouvel empirisme

  • Pourquoi “bayésiennes”? Règle de Bayes

  • Diviser le problème en deux parties:

    • le degré de confirmation de la grammaire par les faits, et

    • la complexité de la grammaire

  • Conclusions


1 analyse probabiliste

1. Analyse probabiliste

Une analyse probabiliste assigne un nombre à chaque représentation possible;

Ce sont des probabilités.

La somme des probabilités de toutes les représentations doit égaler 1.0 .

Nous voulons que la probabilité qui est assignée à la réalité soit grande.


2 le nouvel empirisme

2. Le nouvel empirisme

Une expérience scientifique doit offrir assez de marge à la Nature pour nous surprendre. C'est-à-dire, une étude qui confirme ce que l’on croie déjà était mal conçue ; elle nous enseigne peu de choses. Des méthodes quantitatives nous permettent de comprendre et de mesurer la Nature. La performance de nos modèles sera maximale si nous écoutons la Nature.


2 bis le nouvel empirisme

2 bis. Le nouvel empirisme

Trouver l’hypothèse la plus probable, étant données les observations:

Prendre en consideration la probabilité apriori des hypothèses = complexités des modèles


4 pourquoi bay siennes

4. Pourquoi “bayésiennes”?

  • Regle de Bayes

  • Elle n’est qu’une manipulation de la définition de la probabilité conditionnelle.


La r gle de bayes

La règle de Bayes

D = Données

H = Hypothèse


La r gle de bayes1

D = Données

H = Hypothèse

La règle de Bayes


Vers un nouvel empirisme l ancien et le nouvel empirisme

5. Equivalence mathématique

“Maximiser pr (H|D)” équivaut

“Minimiser -1 * log pr (H|D)”

D = Données

H = Hypothèse

Donc: “Minimiser

–log pr(D|H) – log pr(H) + log pr(D)”


A retenir minimiser log pr d h log pr h log pr d

A retenir:Minimiser –log pr(D|H) – log pr(H) – log pr(D)

D = Données

H = Hypothèse


6 r gle de bayes divise le probl me en deux parties

6. Règle de Bayes divise le problème en deux parties

D = Données

H = Hypothèse

Minimiser –log pr(D|H) – log pr(H) – log pr(D)


6 r gle de bayes divise le probl me en deux parties1

6. Règle de Bayes divise le problème en deux parties

D = Données

H = Hypothèse

Minimiser –log pr(D|H) – log pr(H) – log pr(D)

quantité positive:

plus elle est petite, plus la probabilité de D, étant donné H, est grande.


6 r gle de bayes divise le probl me en deux parties2

6. Règle de Bayes divise le problème en deux parties

D = Données

H = Hypothèse

Minimiser –log pr(D|H) – log pr(H) – log pr(D)

quantité positive:

plus elle est petite, plus la probabilité de D, étant donné H, est grande.

“longueur optimale de D compressé par H”


6 r gle de bayes divise le probl me en deux parties3

6. Règle de Bayes divise le problème en deux parties

D = Données

H = Hypothèse

Minimiser –log pr(D|H) – log pr(H) – log pr(D)

quantité positive:

plus elle est petite, plus la probabilité de D, étant donné H, est grande.

degré inverse de confirmation de la grammaire H par données D


Chomsky language and mind

Chomsky Language and Mind

  •  A third task is that of determining just what it means for a hypothesis about the generative grammar of a language to be “consistent” with the data of sense. Notice that it is a great oversimplification to suppose that a child must discover a generative grammar that accounts for all the linguistic data that has been presented to him and that “projects” such data to an infinite range of potential sound-meaning relations….


Chomsky language and mind1

Chomsky Language and Mind

  • The task, then, is to study what we might think of as the problem of “confirmation”—in this context, the problem of what relation must hold between a potential grammar and a set of data for this grammar to be confirmed as the actual theory of the language in question.


Supposons qu une telle mesure m existe

Supposons qu’une telle mesure M existe…

Si trois conditions sont satisfaites, cette mesure M est équivalente à une probabilité:

  • La mesure est toujours positive;

  • Plus la mesure est grande, moins les données D appuyent H;

  • Si un corpus C contient 2 phrases, P1 et P2, M(C) = M(P1) + M(P2)


6 rappel r gle de bayes divise le probl me en deux parties

6 (rappel): Règle de Bayes divise le problème en deux parties

D = Données

H = Hypothèse

Minimiser –log pr(D|H) – log pr(H) – log pr(D)

quantité positive:

plus elle est petite, plus la probabilité de D, étant H, est grande.

Comment mesurer la probabilité d’une grammaire?


Complexit algorithmique

Complexité algorithmique

On mesure la probabilité d’un algorithme par son complexité algorithmique.

C’est un fait non-trivial que cela défini une probabilité.


7 r gle de bayes divise le probl me en deux parties

7 : Règle de Bayes divise le problème en deux parties

D = Données

H = Hypothèse

Minimiser –log pr(D|H) – log pr(H) – log pr(D)

(quantité qui est

constant, une fois

les données sont choisies:

donc, qui ne

varie pas)

degré inverse de confirmation de la grammaire H par données D


7 en somme

7 : En somme

Minimiser la somme de:

la mesure probabiliste

de la grammaire basée sur les données

la complexié

algorithmique

de l’analyse

+


7 conclusions

7. Conclusions

Un nouvel empirisme:

  • valorise les recherches empiriques et les bases de données;

  • donne une base théorique pour la notion de complexité d’une grammaire;

  • sans recours à une grammaire innée, mais avec recours à une grammaire vraiment universelle;

  • donne une base théorique qui explique et explicite la relation entre une grammaire et les données qu’elle engendre.


Vers un nouvel empirisme l ancien et le nouvel empirisme

Fin


  • Login