• Aucun résultat trouvé

L’information visuelle: Shannon et  Attneave

N/A
N/A
Protected

Academic year: 2022

Partager "L’information visuelle: Shannon et  Attneave"

Copied!
67
0
0

Texte intégral

(1)

L’information visuelle: Shannon et  Attneave

Plan:

La théorie de la communication de Shannon

• La théorie de la perception visuelle de Attneave

• Le principe de Helmholtz et la mise en œuvre computationnelle (Desolneux,  Moisan, M.)

Sources:

C.E. Shannon: A mathematical theory of communication F. Atteneave: Some informational aspects of visual 

A. Desolneux, L. Moisan, JMM: Frome Gestalt theory to image analysis: a  probabilistic approach

R. Grompone: LSD, (Line segment detector), on line demo,  http://www.ipol.im/

(2)
(3)
(4)
(5)
(6)
(7)
(8)
(9)
(10)
(11)
(12)
(13)
(14)
(15)
(16)
(17)

Texture Synthesis by Non‐parametric  Sampling

A.A. Efros and T.K. Leung, ICCV 1999

(18)
(19)
(20)
(21)
(22)
(23)
(24)
(25)
(26)
(27)
(28)
(29)
(30)
(31)
(32)
(33)
(34)
(35)
(36)
(37)
(38)
(39)
(40)
(41)
(42)
(43)
(44)
(45)
(46)
(47)
(48)
(49)
(50)
(51)
(52)
(53)
(54)
(55)
(56)
(57)
(58)
(59)
(60)
(61)
(62)
(63)
(64)
(65)
(66)
(67)

Références

Documents relatifs

L’utilisation d’un codage préfixe à longueur variable montre que l’on peut obtenir un nombre de bits moyen L plus faible que le nombre log2 N de bits obtenu par un code uniforme..

MUBs are of central importance in quantum information theory as for instance in quantum state tomography (deciphering an unknown quantum state) [37, 55, 77], quantum

The accuracy of the neural code is commonly investigated using two different measures: (i) Shannon mutual informa- tion and derived quantities when investigating very small

N (a). log p.} associée à une loi. T4B.])qu'il est toujours positif. Voici la forme d'un terme ternaire, qu'il nous suffira d'étudier dans le cas S = {1,2,3} où il n'y a pas

Our bilateral version of the Shannon-McMillan-Breiman theorem is expected to be useful in other areas of dynamical systems... (2) These two properties are easily proved from

Si H est un espace de Hilbert et si nous disposons d'une collection, indexée par a e A, de bases orthonormées e^a, j e J, de H, on pourra alors, pour un vecteur donné x € H,

Among these several decompositions, only the multiplicative partitioning of equally- weighted communities (17) and the non-additive partitioning of entropy (19) allow independent a

The interpretation of the information cohomology in terms of machine learning and data analysis first relies on the definition of random variables as partition and of