mercredi 24 novembre 2004

Qu'est-ce que "l'information"?

Logon_3"La quantité d'information dans un message est inversement proportionnelle à la probabilité d'apparition de ce message."

Ce n'est pas moi qui le dit mais Claude Shannon, l'inventeur en 1949 de la seule grande théorie de l'information, celle qui a créé le bit et donné naissance à l'informatique.
Si je sais à l'avance ce que tu vas me dire, il n'y a pas d'info! C'est pas beau?
Shannon a même trouvé la formule (ci-dessus) en calculant l'entropie ou logon.L’entropie exprimée en bits est égale à moins la somme des
probabilités des diverses éventualités possibles multipliées par le logarithme
de base 2 de ces probabilités.Exemple : si je tire à pile ou face, la probabilité p
de pile (comme celle de face) est de ½, l’entropie H sera :H = - (1/2 log ½
) + (1/2 log ½ ) = - 2 (1/2 log ½ ) = - log ½ = 1 bit.
Le bit est donc tout simplement la quantité d’information
qui émerge dans la réponse « oui » ou « non » à une
question ; d’où la naissance de l’informatique qui adore ce genre de
réponse par oui ou par non, par 0 ou 1 : dans tel circuit, dans tel
composant, le courant passe ou ne passe-t-il pas ? On peut aller très loin
dans la réflexion intellectuelle par la succession de réponses en oui ou
non ... A suivre...

6 commentaires:

  1. C'est bien joli mais c'est quoi au juste la différence entre communication et information ? Merci de me répondre dans les meilleurs délais, car je suis concernée, voire même impliquée (clin d'oeil)

    RépondreSupprimer
  2. Communication = contenant, vecteur
    Information = objet transmis d'un (ou+) emmeuteur vers un (ou +) recepteur via le vecteur (la communication)
    Pour l'homme je parlerais + d'idées que d'information
    L'Homme est subjectif, il perçois l'information via ses 5 sens, ses préjugés, ses expériences passées...

    RépondreSupprimer
  3. Mon commentaire est évidemnt simpliste (manque de temps) et il existe d'autres modélisation de la coimmunication
    L'école de Pao Alto décompose la com en parties
    - syntaxique : comment on communique (oral, geste, écrit)
    - sémantique : le référentiel commun (dialecte, culture commune lié à un groupe exemple des joureur sde jeux vidéo...)
    - pragmatique : le feedback. Comment le récepteur répnd à l'information envoyée
    Cette décomposition est très interessante car elle permet de modéliser pleins de phénomènes même non "vivant"
    Par exelmple on peut modéliser une gestion de portefeuille bourssier avec des humains mùais aussi des déclencheurs (vente si tombe en desosu de tel cours...)
    Il est aussi interesant de regarder les phénomène de feedback auto entretenu
    Mais il faudrait voir cela aevc un spécialiste de la communication, je ne suis qu'un informaticien ;=)

    RépondreSupprimer
  4. Tout à fait d'accord sur ces deux remarques; ce qui m'intéresse aussi dans la comparaison entre information et communication c'est que, pour moi, il y a "intention" dans les deux cas! C'est évident pour la communication, c'est moins reconnu pour l'information. Or, informer,ce n'est pas seulement transmettre un message, c'est aussi vouloir quelque chose...

    RépondreSupprimer
  5. il y a "intention"
    Pas toujours. Un système d'alarme est réactif. A un stimuli donné il réagit de manière donnée.
    Bien sur sur dela communication hmaine on est dans le cognitif, par contre dans une vision de la communication élargie on a aussi des système dits "réactifs" : nerf optique, système de sécurité...
    Il y a intention dans l'information puisqu'elle est subjective. On ne retransmet jamais l'informatioon "brute", ne serais que dans le choix des mots
    Une expérience interesante ets de donner un einfo à une personne puis de lui demander de la translettre (de manière orale) à une autre, puis cette personne transmet à une autre et ainsi de suite.
    Ilest amusant de comparer l'information du début et de la fin.
    J'ai plein d'autres info sur le domaine
    Je reviendrais (besoin de dormir ;=) pour en dire +

    RépondreSupprimer
  6. j'invite vivement à lire :
    Invitation à la théorie de l'information
    Emmanuel dion
    Collection Point Science
    une bonne petite synthèse de 1997, qui se lit (presque) comme un roman

    RépondreSupprimer