Qu'est-ce que l'information dans le concept de personne. Le concept d'information, ses types et propriétés

Information(du latin informatio, explication, présentation, conscience) - information sur quelque chose, quelle que soit la forme de sa présentation.

Actuellement, il n’existe pas de définition unique de l’information en tant que terme scientifique. Du point de vue des différents domaines de la connaissance, ce concept se décrit par son ensemble spécifique de caractéristiques. Par exemple, la notion d’« information » est fondamentale dans un cours d’informatique, et il est impossible de la définir à travers d’autres concepts plus « simples » (tout comme en géométrie, par exemple, il est impossible d’exprimer le contenu de l’information). concepts de base « point », « rayon », « plan » en passant par des concepts plus simples). Le contenu des concepts fondamentaux de toute science doit être expliqué avec des exemples ou identifié en les comparant avec le contenu d'autres concepts. Dans le cas du concept « information », le problème de sa définition est encore plus complexe, puisqu'il s'agit d'un concept scientifique général. Ce concept est utilisé dans diverses sciences (informatique, cybernétique, biologie, physique, etc.), et dans chaque science le concept « d'information » est associé à différents systèmes de concepts.

Histoire du concept

Le mot « information » vient du lat. informatio, qui en traduction signifie information, explication, familiarisation. Le concept d'information a été considéré par les philosophes anciens.

Avant le début de la révolution industrielle, déterminer l’essence de l’information restait l’apanage principalement des philosophes. Au XXe siècle, la cybernétique et l’informatique ont commencé à aborder les questions de théorie de l’information.

Classement des informations

Les informations peuvent être divisées en types selon différents critères :

Par mode de perception:

Par formulaire de présentation:

Par but:

Par signification:

  • Pertinent – ​​informations précieuses à un moment donné.
  • Fiable - informations obtenues sans distorsion.
  • Compréhensible – information exprimée dans un langage compréhensible pour ceux à qui elle est destinée.
  • Complet - informations suffisantes pour prendre une décision ou une compréhension correcte.
  • Utile - l'utilité de l'information est déterminée par le sujet qui a reçu l'information en fonction de l'étendue des possibilités de son utilisation.

Par vérité:

La signification du terme dans divers domaines de la connaissance

Philosophie

Le traditionalisme du subjectif a constamment dominé les débuts définitions philosophiques informations sous forme de catégories, de concepts, de propriétés du monde matériel. L'information existe indépendamment de notre conscience, et ne peut se refléter dans notre perception que grâce à une interaction : réflexion, lecture, réception sous forme de signal, stimulus. L'information est immatérielle, comme toutes les propriétés de la matière. L'information se présente dans l'ordre suivant : matière, espace, temps, systématicité, fonction, etc., qui sont les concepts fondamentaux d'un reflet formalisé de la réalité objective dans sa distribution et sa variabilité, sa diversité et sa manifestation. L'information est une propriété de la matière et reflète ses propriétés (état ou capacité d'interagir) et sa quantité (mesure) à travers l'interaction.

D'un point de vue matériel, l'information est l'ordre des objets dans le monde matériel. Par exemple, l'ordre des lettres sur une feuille de papier selon certaines règles est une information écrite. L'ordre des points multicolores sur une feuille de papier selon certaines règles est une information graphique. L'ordre des notes de musique est une information musicale. L'ordre des gènes dans l'ADN est une information héréditaire. L'ordre des bits dans un ordinateur est une information informatique, etc., etc. Pour effectuer l'échange d'informations, la présence de conditions nécessaires et suffisantes est requise.

Les conditions nécessaires :

  1. La présence d'au moins deux objets différents du monde matériel ou immatériel.
  2. La présence d'une propriété commune entre les objets qui permet de les identifier comme porteurs d'informations.
  3. La présence d'une propriété spécifique dans les objets qui leur permet de distinguer les objets les uns des autres.
  4. La présence d'une propriété spatiale qui permet de déterminer l'ordre des objets. Par exemple, la disposition des informations écrites sur papier est une propriété spécifique du papier qui permet de disposer les lettres de gauche à droite et de haut en bas.

Il n’y a qu’une seule condition suffisante :

La présence d'un sujet capable de reconnaître des informations. C'est l'homme et la société humaine, les sociétés d'animaux, de robots, etc.

Divers objets (lettres, symboles, images, sons, mots, phrases, notes, etc.) pris un à un constituent la base de l'information. Un message d'information est construit en sélectionnant des copies d'objets à partir d'une base et en disposant ces objets dans l'espace dans un certain ordre. La longueur du message d'information est définie comme le nombre de copies des objets de base et est toujours exprimée sous forme d'entier. Il est nécessaire de faire la distinction entre la longueur d'un message d'information, qui est toujours mesurée en nombre entier, et la quantité de connaissances contenues dans un message d'information, qui est mesurée dans une unité de mesure inconnue.

D'un point de vue mathématique, l'information est une séquence d'entiers écrits dans un vecteur. Les nombres sont le numéro d'objet dans la base d'informations. Le vecteur est appelé invariant d’information, car il ne dépend pas de la nature physique des objets de base. Le même message d'information peut être exprimé sous forme de lettres, de mots, de phrases, de fichiers, d'images, de notes, de chansons, de clips vidéo, ou de toute combinaison de tout ce qui précède. Quelle que soit la manière dont nous exprimons l’information, seule la base change, pas l’invariant.

En informatique

Le sujet d'étude de la science informatique concerne les données : leurs méthodes de création, de stockage, de traitement et de transmission. Et l'information elle-même enregistrée dans les données, sa signification significative, intéresse les utilisateurs des systèmes d'information qui sont des spécialistes de diverses sciences et domaines d'activité : un médecin s'intéresse à l'information médicale, un géologue s'intéresse à l'information géologique, un entrepreneur s'intéresse aux informations commerciales, etc. (y compris un informaticien intéressé par des informations sur les questions de travail avec les données).

Systémologie

Travailler avec l'information est associé à des transformations et confirme toujours sa matérialité :

  • enregistrement - la formation de la structure de la matière et la modulation des flux par l'interaction d'un instrument avec un support ;
  • stockage - stabilité de la structure (quasi-statique) et modulation (quasi-dynamique) ;
  • lecture (étude) - interaction d'une sonde (instrument, transducteur, détecteur) avec un substrat ou un flux de matière.

La systémologie considère l'information à travers la connexion avec d'autres bases : I=S/F, où : I - information ; S - nature systématique de l'univers ; F - connexion fonctionnelle ; M - matière ; v - (v souligné) signe d'une grande unification (systématicité, unité des fondements) ; R - espace ; T - Temps.

En physique

Les objets du monde matériel sont dans un état de changement continu, caractérisé par l'échange d'énergie entre l'objet et l'environnement. Un changement dans l’état d’un objet entraîne toujours un changement dans l’état d’un autre objet environnemental. Ce phénomène, quels que soient la manière dont les états et les objets ont changé, peut être considéré comme la transmission d'un signal d'un objet à un autre. Changer l'état d'un objet lorsqu'un signal lui est transmis est appelé enregistrement de signal.

Un signal ou une séquence de signaux forme un message qui peut être perçu par le destinataire sous une forme ou une autre, ainsi que dans l'un ou l'autre volume. L'information en physique est un terme qui généralise qualitativement les concepts de « signal » et de « message ». Si les signaux et les messages peuvent être quantifiés, alors nous pouvons dire que les signaux et les messages sont des unités de mesure du volume d'informations.

Le même message (signal) est interprété différemment par différents systèmes. Par exemple, un signal sonore successivement long et deux courts (et plus encore en codage symbolique -..) dans la terminologie du code Morse est la lettre D (ou D), dans la terminologie du BIOS de la société AWARD - un dysfonctionnement de la carte vidéo.

En mathématiques

En mathématiques, la théorie de l'information (théorie mathématique de la communication) est une section des mathématiques appliquées qui définit le concept d'information, ses propriétés et établit des relations limites pour les systèmes de transmission de données. Les principales branches de la théorie de l'information sont le codage source (codage par compression) et le codage canal (résistant au bruit). Les mathématiques sont plus qu'une discipline scientifique. Cela crée un langage unifié pour toute la science.

Le sujet de la recherche mathématique concerne les objets abstraits : nombre, fonction, vecteur, ensemble et autres. De plus, la plupart d'entre eux sont introduits de manière axiomatique (axiome), c'est-à-dire sans aucun lien avec d'autres concepts et sans aucune définition.

L'information ne fait pas partie de l'étude des mathématiques. Cependant, le mot « information » est utilisé en termes mathématiques – auto-information et information mutuelle, liés à la partie abstraite (mathématique) de la théorie de l'information. Cependant, dans la théorie mathématique, le concept d'« information » est associé à des objets exclusivement abstraits - des variables aléatoires, tandis que dans la théorie de l'information moderne, ce concept est considéré beaucoup plus largement - comme une propriété des objets matériels.

Le lien entre ces deux termes identiques est indéniable. C'est l'appareil mathématique des nombres aléatoires qui a été utilisé par l'auteur de la théorie de l'information, Claude Shannon. Lui-même entend par le terme « information » quelque chose de fondamental (d’irréductible). La théorie de Shannon suppose intuitivement que l’information a un contenu. L’information réduit l’incertitude globale et l’entropie de l’information. La quantité d’informations est mesurable. Il met toutefois en garde les chercheurs contre le transfert mécanique de concepts de sa théorie vers d’autres domaines scientifiques.

« La recherche de moyens d'appliquer la théorie de l'information à d'autres domaines scientifiques ne se résume pas à un transfert trivial de termes d'un domaine scientifique à un autre. Cette recherche s’inscrit dans un long processus consistant à émettre de nouvelles hypothèses et à les tester expérimentalement. K. Shannon.

Dans la jurisprudence

La définition juridique de la notion d'« information » est donnée dans la loi fédérale du 27 juillet 2006 n° 149-FZ « sur l'information, les technologies de l'information et la protection de l'information » (article 2) : « information - information (messages, données) quelle que soit la forme de leur présentation ».

La loi fédérale n° 149-FZ définit et consolide les droits à la protection et à la sécurité de l'information des citoyens et des organisations dans les ordinateurs et les systèmes d'information, ainsi que les questions de sécurité de l'information des citoyens, des organisations, de la société et de l'État.

En théorie du contrôle

Dans la théorie du contrôle (cybernétique), dont l'objet d'étude est les lois fondamentales du contrôle, c'est-à-dire le développement des systèmes de contrôle, l'information fait référence aux messages reçus par le système du monde extérieur lors du contrôle adaptatif (adaptation, auto-préservation du système de contrôle).

Le fondateur de la cybernétique, Norbert Wiener, a parlé d'informations comme celle-ci :

"L'information n'est pas de la matière ou de l'énergie, l'information est de l'information." Mais la définition de base de l’information qu’il a donnée dans plusieurs de ses livres est la suivante : l'information est une désignation du contenu que nous recevons du monde extérieur dans le processus d'adaptation de nous et de nos sentiments à celui-ci.

- N. Wiener Cybernétique, ou contrôle et communication chez l'animal et la machine ; ou Cybernétique et société

Cette pensée de Wiener donne une indication directe de l'objectivité de l'information, c'est-à-dire de son existence dans la nature indépendamment de la conscience humaine (perception).

La cybernétique moderne définit l'information objective comme la propriété objective des objets et phénomènes matériels de générer une variété d'états qui, à travers les interactions fondamentales de la matière, sont transmises d'un objet (processus) à un autre et sont imprimées dans sa structure.

Un système matériel en cybernétique est considéré comme un ensemble d'objets qui peuvent eux-mêmes être dans différents états, mais l'état de chacun d'eux est déterminé par les états des autres objets du système. Dans la nature, de nombreux états d'un système représentent des informations ; les états eux-mêmes représentent le code primaire, ou code source. Ainsi, tout système matériel est une source d’information.

La cybernétique définit l'information subjective (sémantique) comme la signification ou le contenu d'un message. (voir ibid.) L’information est une caractéristique d’un objet.

Désinformation

La désinformation (également la désinformation) est l'un des moyens de manipuler l'information, comme induire quelqu'un en erreur en fournissant des informations incomplètes ou complètes mais plus nécessaires, ou complètes mais pas dans le domaine requis, distorsion du contexte, distorsion d'une partie de l'information.

Le but d'une telle influence est toujours le même : l'adversaire doit agir selon les besoins du manipulateur. L'action de la cible contre laquelle est dirigée la désinformation peut consister à prendre une décision dont le manipulateur a besoin ou à refuser de prendre une décision qui lui est défavorable. Mais dans tous les cas, l’objectif final est l’action qui sera entreprise.

MINISTÈRE DE L'ÉDUCATION ET DES SCIENCES DE LA FÉDÉRATION DE RUSSIE

Établissement d'enseignement public d'enseignement professionnel supérieur

"UNIVERSITÉ D'ÉTAT DE SAINT-PÉTERSBOURG
INGÉNIERIE D'INSTRUMENTS AÉROSPATIAUX"

Faculté N4 Faculté des Systèmes Informatiques et Programmation

GRADE

PROFESSEUR

TRAVAUX ACHEVÉS

Saint-Pétersbourg 2011

Concept d'information et d'informatique

Concepts de base de l'information

La plupart des scientifiques abandonnent aujourd'hui leurs tentatives de donner une définition stricte de l'information et estiment que l'information doit être considérée comme un concept primaire et indéfinissable, comme les ensembles en mathématiques. Certains auteurs de manuels proposent les définitions suivantes de l’information :

Information est une connaissance ou une information sur quelqu'un ou quelque chose.
Information– il s’agit d’informations qui peuvent être collectées, stockées, transmises, traitées et utilisées.
Informatique - la science de l'information
ou
est la science de la structure et des propriétés de l'information, des méthodes de collecte, de traitement et de transmission de l'information
ou
– l'informatique, étudie la technologie de collecte, de stockage et de traitement de l'information, et l'ordinateur est l'outil principal de cette technologie.

Le terme information vient du mot latin informatio qui signifie information, explication, présentation. Actuellement, la science tente de trouver des propriétés générales et des modèles inhérents au concept multiforme d'information, mais jusqu'à présent, ce concept reste en grande partie intuitif et reçoit un contenu sémantique différent dans diverses branches de l'activité humaine :

1. dans la vie de tous les jours, l'information désigne toute donnée, information, connaissance qui intéresse quelqu'un. Par exemple, un message sur un événement, sur les activités de quelqu'un, etc. ;

2. en technologie, on entend par information des messages transmis sous forme de signes ou de signaux (dans ce cas il existe une source de messages, un destinataire (récepteur) de messages, un canal de communication) ;

3. En cybernétique, l'information est comprise comme la partie de la connaissance utilisée pour l'orientation, l'action active, le contrôle, c'est-à-dire afin de préserver, d'améliorer et de développer le système ;

4. Dans la théorie de l'information, l'information est comprise comme des informations sur les objets et phénomènes de l'environnement, leurs paramètres, leurs propriétés et leur état, qui réduisent le degré d'incertitude et de connaissance incomplète à leur sujet.

Information- Il s'agit d'un reflet du monde extérieur à l'aide de signes ou de signaux.
La valeur informationnelle d'un message réside dans les nouvelles informations qu'il contient (en réduisant l'ignorance).

Propriétés des informations :

1. exhaustivité - la propriété de l'information d'être exhaustive (par de ce consommateur) caractériser l'objet ou le processus affiché ;

2. pertinence - la capacité de l'information à répondre aux besoins du consommateur au bon moment ;

3. fiabilité - la propriété de l'information de ne pas contenir d'erreurs cachées. Des informations fiables peuvent devenir peu fiables avec le temps si elles deviennent obsolètes et cessent de refléter la véritable situation ;

4. accessibilité - une propriété de l'information qui caractérise la possibilité de la recevoir par un consommateur donné ;

5. pertinence - la capacité de l'information à répondre aux besoins (demandes) du consommateur ;

6. sécurité - une propriété caractérisant l'impossibilité d'utilisation ou de modification non autorisée des informations ;

7. ergonomie - une propriété qui caractérise la commodité de la forme ou du volume de l'information du point de vue d'un consommateur donné.

L'information doit être considérée comme un type particulier de ressource, c'est-à-dire l'interprétation d'une « ressource » comme un stock de certaines connaissances sur des objets matériels ou sur des caractéristiques énergétiques, structurelles ou toute autre caractéristique d'un objet. Contrairement aux ressources associées aux objets matériels, les ressources informationnelles sont inépuisables et nécessitent des méthodes de reproduction et de mise à jour sensiblement différentes de celles des ressources matérielles.

De ce point de vue, nous pouvons considérer les propriétés suivantes de l’information :

1. mémorisation ;

2. transférabilité ;

3. reproductibilité ;

4. convertibilité ;

5. lavabilité.

Mémorabilité- l'une des propriétés les plus importantes. Nous appellerons l'information mémorisée macroscopique (c'est-à-dire l'échelle spatiale de la cellule de stockage et le temps de mémorisation). C'est avec des informations macroscopiques que nous traitons dans la pratique réelle.

Transmissibilité les informations utilisant des canaux de communication (y compris ceux avec interférences) ont été bien étudiées dans le cadre de la théorie de l'information de K. Shannon. Dans ce cas, nous entendons un aspect légèrement différent - la capacité des informations à être copiées, c'est-à-dire au fait qu'il peut être « mémorisé » par un autre système macroscopique et en même temps rester identique à lui-même. Évidemment, la quantité d'informations ne doit pas augmenter lors de la copie.

Reproductibilité l'information est étroitement liée à sa transférabilité et ne constitue pas sa propriété fondamentale indépendante. Si la transférabilité signifie que les relations spatiales entre les parties du système entre lesquelles l'information est transmise ne doivent pas être considérées comme significatives, alors la reproductibilité caractérise l'inépuisabilité et l'inépuisabilité de l'information, c'est-à-dire qu'une fois copiée, l'information reste identique à elle-même.

La propriété fondamentale de l'information est convertibilité. Cela signifie que l’information peut changer la manière et la forme de son existence. La copiabilité est un type de transformation de l'information dans lequel sa quantité ne change pas. Dans le cas général, la quantité d'informations dans les processus de transformation change, mais ne peut pas augmenter.

Propriété effaçabilité l’information n’est pas non plus indépendante. Elle est associée à une telle transformation de l'information (transfert), dans laquelle sa quantité diminue et devient égale à zéro.

· Ces propriétés de l'information ne suffisent pas à former sa mesure, puisqu'elles concernent le niveau physique des processus d'information.

L'information est toujours associée à un support matériel.

Support d'information Peut être:

1) tout objet matériel (papier, pierre, etc.) ;
des ondes de natures diverses : acoustiques (son), électromagnétiques (lumière, ondes radio), etc. ;

2) une substance dans un état différent : la concentration de molécules dans solution liquide, température, etc.

Signal- méthode de transmission des informations. Il s'agit d'un processus physique qui a une valeur informationnelle. Elle peut être continue ou discrète.
Un signal est dit discret s'il ne peut prendre qu'un nombre fini de valeurs à un nombre fini de fois.
Signal analogique- un signal qui change continuellement en amplitude et en temps.
Signaux porteurs d'informations textuelles et symboliques, discret .
Les signaux analogiques sont utilisés dans les communications téléphoniques, la radiodiffusion et la télévision.

Il est inutile de parler d’information en général, et non d’un type d’information spécifique. On peut classer :

· par les méthodes de perception (visuelle, tactile, etc.) ;

· par forme de présentation (texte, numérique, graphique, etc.) ;

· selon la signification sociale (de masse, spéciale, personnelle).

Exemples d'obtention d'informations :

1) le haut-parleur de l'ordinateur émet un son spécifique, bien connu de Vasya, - donc un nouveau message est arrivé via ICQ ;

2) une épaisse fumée a été remarquée provenant d'un hélicoptère des pompiers au plus profond de la forêt - un nouvel incendie de forêt a été découvert ;

3) toutes sortes de capteurs situés dans une zone sismologiquement instable enregistrent les changements de situation caractéristiques d'un tremblement de terre imminent.

Principales orientations de l'informatique : cybernétique, programmation, informatique, intelligence artificielle, informatique théorique, systèmes d'information. Le concept d’informatique est relativement nouveau dans le vocabulaire de l’homme moderne. Malgré son utilisation répandue, son contenu reste incertain en raison de sa nouveauté. Intuitivement, il est clair qu'il est associé à l'information, ainsi qu'à son traitement sur ordinateur. Ceci est confirmé par la légende existante sur l'origine de ce mot : on pense qu'il est composé de deux mots - Information et automatisation (comme moyen de conversion de l'information).

En raison de l'utilisation généralisée des ordinateurs et du boom de l'information que connaît l'humanité, toute personne moderne et instruite devrait être familiarisée avec les bases de l'informatique ; c'est pourquoi son enseignement est inclus dans le cursus du secondaire et se poursuit dans l'enseignement supérieur.

Concepts de base de l'informatique

L'informatique– un domaine d'activité humaine associé aux processus de conversion d'informations à l'aide d'ordinateurs et d'autres technologies informatiques. L'informatique est souvent associée à l'un des concepts suivants : il s'agit soit d'un ensemble de certains moyens de conversion de l'information, soit d'une science fondamentale, soit d'une branche de production, soit d'une discipline appliquée.

L'informatique en tant qu'ensemble de moyens de conversion d'informations comprend le matériel (matériel), les produits logiciels (logiciel), les méthodes mathématiques, les modèles et les algorithmes standard (brainware). Les moyens techniques comprennent les ordinateurs et les périphériques associés (moniteurs, claviers, imprimantes et traceurs, modems, etc.), les lignes de communication, le matériel de bureau, etc., c'est-à-dire ces ressources matérielles qui assurent la transformation de l'information, l'ordinateur jouant un rôle de premier plan dans cette liste. De par sa spécificité, un ordinateur vise à résoudre un très large éventail de tâches de transformation de l'information, tandis que le choix d'une tâche spécifique lors de l'utilisation d'un ordinateur est déterminé par logiciel, sous lequel l'ordinateur fonctionne. Les produits logiciels comprennent les systèmes d'exploitation et leurs shells intégrés, les systèmes de programmation et de conception de produits logiciels, divers progiciels d'application, tels que les éditeurs de texte et graphiques, les systèmes de comptabilité et de publication, etc. L'application spécifique de chaque produit logiciel est spécifique et sert à résoudre un certain nombre de problèmes de nature appliquée ou système. Les méthodes mathématiques, les modèles et les algorithmes standards constituent la base qui sous-tend la conception et la fabrication d'un logiciel, d'un matériel ou d'un autre objet en raison de la complexité exceptionnelle de ce dernier et, par conséquent, de l'impossibilité d'une approche spéculative de la création.

Le concept d'information dans le monde scientifique moderne est ambigu. Malgré le fait qu'il soit apparu il y a assez longtemps, les scientifiques ne peuvent toujours pas donner une définition stricte de ce terme et affirment qu'il doit être considéré comme un concept primaire indéfinissable. Dans les manuels d’informatique, vous pouvez trouver les définitions suivantes :

Information - information ou connaissance sur quelque chose ; connaissances qui peuvent être collectées, stockées, transmises, traitées et utilisées. L'information en informatique est un concept fondamental de la science, puisque l'informatique est la science de l'information, de sa structure et de ses propriétés, des méthodes de son traitement et de sa transmission. L'informatique étudie l'information à l'aide de l'outil principal - l'ordinateur.

Le terme lui-même, traduit du latin, signifie « information », « présentation ». Aujourd'hui, la science est à la recherche de propriétés générales et de modèles inhérents à l'information, mais jusqu'à présent, l'information en informatique est un concept intuitif qui a des significations différentes selon les différentes sphères de l'activité humaine.

Malgré la présence d'un grand nombre de définitions, nous soulignerons les plus générales et les plus compréhensibles. L'information est le reflet du monde qui l'entoure à travers des signaux et des signes. La valeur réside dans les nouvelles connaissances qu’il contient.

En informatique. Selon le mode de perception, elle peut être perçue à travers les yeux, l'odorat, le goût et le toucher. De plus, selon la forme de présentation, ils sont divisés en texte, numérique, graphique et audio. Les informations vidéo sont également incluses dans cette classification.

L'information en informatique possède un certain nombre de propriétés. Ceux-ci incluent l’exhaustivité, la fiabilité, la pertinence, l’accessibilité, la sécurité, la pertinence (la capacité à répondre aux demandes) et l’ergonomie.

L'information en tant que type particulier de ressource possède des propriétés qui lui sont caractéristiques. Ceux-ci incluent : la mémorisation, la reproductibilité, la transférabilité, la convertibilité et l’effaçabilité.

Dans ce cas, il peut y avoir n'importe quel objet du monde matériel, des ondes (acoustiques, électromagnétiques, etc.), de la matière dans n'importe quel état. Il existe également des supports machines (comme la bande magnétique). En informatique, l'information est transmise à l'aide de signaux.

Un signal est un processus physique qui a une valeur informationnelle et peut être discret ou continu. Le premier ne prend qu'un nombre fini de valeurs pour un certain nombre d'instants dans le temps, et le continu est celui qui change constamment à la fois en temps et en amplitude. Les signaux qui transportent des informations symboliques ou textuelles sont discrets. Des exemples de signaux analogiques incluent le téléphone ou la télévision.

Le nôtre se développe très rapidement et aujourd'hui, dans les sciences de l'information, il existe un certain nombre de nouveaux domaines, tels que la programmation, la cybernétique, l'intelligence artificielle, l'informatique, les systèmes d'information et la théorie de l'informatique - relativement nouveaux dans le lexique humain, et malgré la généralisation utilisation de ce mot dans le discours, son contenu reste flou et flou. L'informatique concerne l'information et son traitement sur les ordinateurs. D'un point de vue intuitif, tout est clair, mais si vous y regardez de plus près, le problème devient beaucoup plus compliqué qu'il n'y paraît à première vue.

Étant donné que les ordinateurs sont aujourd'hui très répandus et que l'humanité connaît un boom de l'information, les bases de l'informatique devraient être compréhensibles pour tout individu moderne qui souhaite au moins un peu rester dans l'air du temps. Ce sont ces facteurs qui ont influencé le fait que l'enseignement de l'informatique a été introduit dans le programme scolaire et que chaque jeune a la possibilité de maîtriser cette science nouvelle, mais très intéressante et nécessaire.

Le mot « information » vient d'informatio - information, explication, familiarisation.

Information- il s'agit d'un ensemble de toute information, donnée transmise oralement (sous forme de parole), par écrit (sous forme de texte, tableaux, images, dessins, schémas, symboles) ou d'une autre manière (par exemple, en utilisant le son ou signaux lumineux, impulsions électriques et nerveuses, changements de pression ou de température, etc.).

Au milieu du XXe siècle, le terme « information » est devenu un concept scientifique général, incluant l'échange d'informations entre des personnes, une personne et un automate (ordinateur électronique), un automate et un automate, l'échange de signaux chez l'animal. et le monde végétal, le transfert de caractéristiques de cellule à cellule, d'un organisme à l'organisme.

Les questions théoriques et pratiques liées à l'information sont étudiées par l'informatique.

L'informatique- une science qui étudie la structure et les propriétés de l'information, ainsi que les enjeux liés à sa collecte, son stockage, sa recherche, sa transmission, sa transformation, sa distribution et son utilisation dans diverses sphères de l'activité humaine.

Une autre définition de l'informatique.

L'informatique est un domaine d'activité humaine associé aux processus de conversion d'informations à l'aide d'ordinateurs.

Il est difficile de donner une définition sans ambiguïté de l'information. Il existe 4 approches pour définir l'information :

  • ordinaire(au sens de prise de conscience de l'état des choses, il s'agit d'informations communiquées par téléphone, diffusées à la radio et à la télévision),
  • philosophique(le sujet reçoit des informations sur l'objet au cours du processus de cognition ; on pense que l'objet se reflète dans la conscience du sujet),
  • cybernétique(l'information est un signal de contrôle transmis sur une ligne de communication, mais elle est plus porteuse d'information que l'information elle-même),
  • probabiliste(l'information est une mesure de réduction de l'incertitude sur l'état de l'objet de recherche).

Parlons plus en détail de l'approche probabiliste, puisqu'elle permet d'introduire une mesure quantitative de l'information. Cette approche est acceptée comme base dans la science moderne.

Chaque objet comporte une sorte d’incertitude. Par exemple, il peut se trouver dans l'un de plusieurs états fixes. Une pièce tombée est dans l'un des deux états, un dé est dans l'un des six, etc. Au cours du processus de test (lancer une pièce ou un dé), l'objet acquiert l'un des états possibles. Par conséquent, l’incertitude sur l’état de l’objet est réduite. Ainsi, le testeur reçoit certaines informations. Le degré de réduction de l'incertitude des tests peut varier. Cela dépend du nombre d’états possibles et de leurs probabilités.

Probabilité- il s'agit d'une valeur comprise entre 0 et 1, caractérisant la fréquence d'apparition d'un état particulier de l'objet lors du test.


Il est clair que lorsque l’état le moins probable apparaît, nous obtenons la plus grande quantité d’informations. Si un objet a n états équiprobables, alors la probabilité de chacun d’eux est de 1/n. Par exemple, la probabilité que l'un des côtés d'un cube tombe lors du lancement est de 1/6 et la probabilité d'obtenir face (face) lors du lancement d'une pièce est de 0,5. Cela signifie que sur 1 000 lancers de pièces, environ 500 faces (faces) sont obtenues.

Une attention particulière portée à l'informatique est associée à la croissance rapide du volume des connaissances humaines, parfois appelées "explosion d'informations". La somme totale des connaissances humaines évoluait très lentement. Ensuite, le processus d’acquisition de nouvelles connaissances s’est sensiblement accéléré. Ainsi, en 1800, la quantité totale de connaissances humaines doublait tous les 50 ans, en 1950 - tous les 10 ans, et en 1970 - tous les 5 ans, en 1990 - chaque année.

Une quantité colossale d'informations est transmise sur Internet mondial, qui relie les pays situés sur différents continents.

Selon un rapport de ComputerAlmanacIndustryInc., plus de 147 millions de personnes dans le monde avaient accès à Internet en 1998, contre 61 millions en 1996. Le rapport cite les 15 pays les plus connectés au monde.

La liste était dominée par les États-Unis avec 76,5 millions d'utilisateurs, suivis du Japon et du Royaume-Uni avec respectivement 9,75 millions et 8,1 millions d'utilisateurs. Les dix premiers étaient l'Allemagne - 7,14 millions d'utilisateurs, le Canada - 6,49 millions, l'Australie - 4,36 millions, la France - 2,79 millions, la Suède - 2,58 millions, l'Italie - 2,14 millions et l'Espagne - 1,98 million.

Les cinq pays restants sur la liste des quinze étaient les Pays-Bas - 1,96 million d'internautes, Taiwan - 1,65 million, la Chine - 1,58 million, la Finlande - 1,57 million et la Norvège - 1,34 million. Ensemble, ces 15 pays représentent 89 % de la population mondiale. la « population » Internet mondiale.

Ainsi, à l'heure actuelle, une grande quantité d'informations a été accumulée, qu'il est impossible pour les gens de traiter manuellement (en raison de leurs caractéristiques psychophysiques).

Un outil efficace pour traiter de grandes quantités d’informations est un ordinateur électronique. (ORDINATEUR).

L’un des principaux facteurs d’accélération du progrès scientifique et technologique est l’utilisation généralisée les nouvelles technologies de l'information, par quoi on entend un ensemble de méthodes et de moyens collecte, traitement et transmission de données (informations primaires) pour obtenir de nouvelles informations de qualité sur l'état d'un objet, d'un processus ou d'un phénomène basées sur les technologies informatiques et de communication et l'utilisation généralisée de méthodes mathématiques.

Il existe deux formes de présentation des informations - continu (analogique) et intermittent (numérique, discret). La forme continue caractérise un processus qui n'a pas d'interruption et qui peut théoriquement changer à tout moment et dans n'importe quelle ampleur (par exemple, la parole humaine, un morceau de musique). Un signal numérique ne peut changer qu'à certains moments et ne prendre que des valeurs prédéterminées (par exemple, uniquement des valeurs de tension de 0 et 3,5 V). Les moments de changements possibles dans le niveau d'un signal numérique sont définis par le générateur d'horloge d'un appareil numérique particulier.

La conversion d'un signal analogique en signal numérique nécessite d'échantillonner un signal continu dans le temps, de le quantifier par niveau, puis de coder les valeurs sélectionnées.

Échantillonnage- remplacement d'un signal continu (analogique) par une séquence d'échantillons temporels séparés de ce signal. Le plus courant est l’échantillonnage uniforme, basé sur Théorème de Kotelnikov.

La figure montre schématiquement le processus de conversion d'un signal analogique en signal numérique. Le signal numérique dans ce cas ne peut prendre que cinq niveaux différents. Naturellement, la qualité d’une telle transformation est faible. Il ressort de la figure qu'une modification du signal numérique n'est possible qu'à certains moments (dans ce cas, il y a onze de ces moments).

Après une telle transformation, un signal continu est représenté comme une séquence de nombres. Le signal continu illustré sur la figure est remplacé par les chiffres 2-3-4-4-4-3-2-2-3-4-4. Les nombres décimaux répertoriés sont ensuite convertis (codés) en une séquence de uns et de zéros. Les résultats de cette transformation peuvent être présentés dans le tableau :

Après une telle transformation, un signal continu est représenté comme une séquence de nombres. Le signal continu illustré sur la figure est remplacé par les chiffres 2-3-4-4-4-3-2-2-3-4-4. Les nombres décimaux répertoriés sont ensuite convertis (codés) en une séquence de uns et de zéros.

Une première idée des méthodes analogiques et numériques de stockage et de diffusion de l'information peut être obtenue en considérant deux méthodes d'enregistrement des signaux sonores : les enregistrements audio analogiques et numériques.

Dans l'enregistrement audio analogique, un signal électrique continu généré par la source sonore à la sortie du microphone est appliqué à une bande magnétique en mouvement à l'aide d'une tête magnétique. L'inconvénient de la méthode analogique de traitement de l'information est que la copie est toujours pire que l'original.

L'enregistrement audio numérique utilise un processus d'échantillonnage qui mesure périodiquement le niveau (intensité) d'un signal audio analogique (provenant par exemple de la sortie d'un microphone) et transforme la valeur résultante en une séquence de nombres binaires. Pour convertir un signal analogique en signal numérique, un convertisseur spécial appelé convertisseur analogique-numérique (ADC) est utilisé. Le signal de sortie ADC est une séquence de nombres binaires qui peuvent être écrits sur un disque laser ou traités par un ordinateur. La conversion inverse du signal numérique en signal continu est réalisée à l'aide d'un convertisseur numérique-analogique (DAC).

La qualité de la conversion analogique-numérique est caractérisée par un paramètre appelé résolution. La résolution est le nombre de niveaux de quantification utilisés pour remplacer un signal analogique continu par un signal numérique. L'échantillonnage sur huit bits permet seulement 256 niveaux de quantification différents d'un signal numérique, tandis que l'échantillonnage sur seize bits permet 65 536 niveaux.

Un autre indicateur de la qualité de la transformation d'un signal continu en signal numérique est le taux d'échantillonnage - le nombre de conversions analogique-numérique (échantillons) produites par l'appareil en une seconde.

Cet indicateur est mesuré en kilohertz (kilohertz - mille échantillons par seconde). Le taux d'échantillonnage typique des disques audio laser modernes est de 44,1 kHz.

Il existe une tendance à évoluer vers une représentation numérique unifiée de tous les types d’informations. L’Internet mondial prétend fédérer tous les moyens de diffusion et de communication, réseaux informatiques, téléphoniques, radio et vidéo, les reliant en un seul « cyberespace ».

L'information est une information sur quelque chose

Concept et types d'informations, transmission et traitement, recherche et stockage d'informations

L'information est, définition

Les informations sont n'importe lequel intelligence, reçus et transmis, stockés par diverses sources. - il s'agit de l'ensemble des informations sur le monde qui nous entoure, sur toutes sortes de processus qui s'y déroulent et qui peuvent être perçues par les organismes vivants, les machines électroniques et d'autres systèmes d'information.

- Ce une information significative sur quelque chose, lorsque la forme de sa présentation est également une information, c'est-à-dire qu'elle a une fonction de formatage conformément à sa propre nature.

Les informations sont tout ce qui peut être complété par nos connaissances et nos hypothèses.

Les informations sont informations sur quelque chose, quelle que soit la forme de sa présentation.

Les informations sont mental de tout organisme psychophysique, produit par celui-ci lors de l'utilisation de tout moyen appelé support d'information.

Les informations sont informations perçues par les humains et (ou) les spécialistes. dispositifs comme reflet des faits du monde matériel ou spirituel dans processus communications.

Les informations sont données organisées de manière à ce qu’elles aient un sens pour la personne qui les manipule.

Les informations sont la signification qu'une personne attache aux données sur la base des conventions connues utilisées pour les représenter.

Les informations sont information, explication, présentation.

Les informations sont toute donnée ou information qui intéresse quiconque.

Les informations sont des informations sur les objets et phénomènes de l'environnement, leurs paramètres, propriétés et état, qui sont perçus par les systèmes d'information (organismes vivants, machines de contrôle, etc.) dans processus la vie et le travail.

Le même message d'information (article de journal, publicité, lettre, télégramme, certificat, histoire, dessin, émission de radio, etc.) peut contenir différentes quantités d'informations pour différentes personnes - en fonction de leurs connaissances préalables, du niveau de compréhension de ce message et de l'intérêt pour cela.

Dans les cas où ils parlent d'automatisation travail avec des informations à travers n'importe quel appareils techniques, ne sont pas intéressés par le contenu du message, mais par le nombre de caractères que contient ce message.

Les informations sont

En relation avec le traitement informatique des données, l'information s'entend comme une certaine séquence de désignations symboliques (lettres, chiffres, images et sons graphiques codés, etc.), porteuses d'une charge sémantique et présentées sous une forme compréhensible par l'ordinateur. Chaque nouveau caractère dans une telle séquence de caractères augmente le volume d'informations du message.

Actuellement, il n’existe pas de définition unique de l’information en tant que terme scientifique. Du point de vue des différents domaines de la connaissance, ce concept se décrit par son ensemble spécifique de caractéristiques. Par exemple, la notion d’« information » est fondamentale dans un cours d’informatique, et il est impossible de la définir à travers d’autres concepts plus « simples » (tout comme en géométrie, par exemple, il est impossible d’exprimer le contenu de l’information). concepts de base « point », « ligne », « plan » en passant par des concepts plus simples).

Le contenu des concepts fondamentaux de toute science doit être expliqué avec des exemples ou identifié en les comparant avec le contenu d'autres concepts. Dans le cas du concept « information », le problème de sa définition est encore plus complexe, puisqu'il s'agit d'un concept scientifique général. Ce concept est utilisé dans diverses sciences (informatique, cybernétique, biologie, physique, etc.), et dans chaque science le concept « d'information » est associé à différents systèmes de concepts.

Notion d'information

Dans la science moderne, deux types d'informations sont considérés :

L'information objective (primaire) est la propriété des objets matériels et des phénomènes (processus) de générer une variété d'états qui, par des interactions (interactions fondamentales), sont transmis à d'autres objets et imprimés dans leur structure.

L'information subjective (sémantique, sémantique, secondaire) est le contenu sémantique des informations objectives sur les objets et les processus du monde matériel, formé par la conscience humaine à l'aide d'images sémantiques (mots, images et sensations) et enregistrées sur un support matériel.

Au sens quotidien, l'information est une information sur le monde environnant et les processus qui s'y déroulent, perçus par une personne ou un appareil spécial.

Actuellement, il n’existe pas de définition unique de l’information en tant que terme scientifique. Du point de vue des différents domaines de la connaissance, ce concept se décrit par son ensemble spécifique de caractéristiques. Selon le concept de K. Shannon, l'information est la suppression de l'incertitude, c'est-à-dire Des informations qui doivent éliminer, à un degré ou à un autre, l'incertitude existant chez l'acquéreur avant de le recevoir, et élargir sa compréhension de l'objet avec des informations utiles.

Du point de vue de Gregory Beton, l'unité élémentaire d'information est une « différence non indifférente » ou une différence effective pour un système de perception plus vaste. Il qualifie de « potentielles » les différences qui ne sont pas perçues et d’« efficaces » celles qui sont perçues. « L'information est constituée de différences qui ne sont pas indifférentes » (c) « Toute perception d'information est nécessairement la réception d'informations sur la différence. » Du point de vue de l'informatique, l'information possède un certain nombre de propriétés fondamentales : nouveauté, pertinence, fiabilité, objectivité, exhaustivité, valeur, etc. La science logique s'occupe principalement de l'analyse de l'information. Le mot « information » vient du latin informatio, qui signifie information, explication, introduction. Le concept d'information a été considéré par les philosophes anciens.

Les informations sont

Avant le début de la révolution industrielle, déterminer l’essence de l’information restait l’apanage principalement des philosophes. Ensuite, la nouvelle science qu’est la cybernétique a commencé à considérer les questions de théorie de l’information.

Parfois, afin de comprendre l'essence d'un concept, il est utile d'analyser le sens du mot par lequel ce concept est désigné. Clarifier la forme intérieure d'un mot et étudier l'histoire de son usage peut apporter un éclairage inattendu sur son sens, obscurci par l'usage « technologique » habituel du mot et ses connotations modernes.

Le mot information est entré dans la langue russe à l’époque pétrinienne. Il a été enregistré pour la première fois dans les « Règlements spirituels » de 1721 dans le sens de « idée, concept de quelque chose ». (Dans les langues européennes, il a été établi plus tôt - vers le 14ème siècle.)

Les informations sont

Sur la base de cette étymologie, l'information peut être considérée comme tout changement de forme significatif ou, en d'autres termes, toute trace matériellement enregistrée, formée par l'interaction d'objets ou de forces et susceptible d'être comprise. L’information est donc une forme convertie d’énergie. Le porteur de l'information est un signe, et le mode de son existence est l'interprétation : identifier la signification d'un signe ou d'une séquence de signes.

Le sens peut être un événement reconstruit à partir d'un signe qui a provoqué son apparition (dans le cas de signes « naturels » et involontaires, tels que des traces, des indices, etc.), ou un message (dans le cas de signes conventionnels inhérents au domaine). de la langue). C’est le deuxième type de signes qui constitue le corps de la culture humaine, qui, selon une définition, est « un ensemble d’informations transmises de manière non héréditaire ».

Les informations sont

Les messages peuvent contenir des informations sur des faits ou une interprétation de faits (du latin performatio, interprétation, traduction).

Un être vivant reçoit des informations par les sens, ainsi que par la réflexion ou l'intuition. L'échange d'informations entre sujets est communication ou communication (du latin communicatio, message, transfert, dérivé à son tour du latin communico, rendre commun, communiquer, parler, se connecter).

D'un point de vue pratique, l'information est toujours présentée sous forme de message. Le message d'information est associé à la source du message, au destinataire du message et au canal de communication.

Revenant à l'étymologie latine du mot information, essayons de répondre à la question de savoir ce qui est exactement donné ici.

Il est évident que, premièrement, à un certain sens qui, étant initialement informe et inexprimé, n'existe que potentiellement et doit être « construit » pour être perçu et transmis.

Deuxièmement, à l’esprit humain, qui est entraîné à penser de manière structurelle et claire. Troisièmement, à une société qui, précisément parce que ses membres partagent ces significations et les utilisent ensemble, gagne en unité et en fonctionnalité.

Les informations sont

l'information en tant que signification intelligente exprimée est une connaissance qui peut être stockée, transmise et servir de base à la génération d'autres connaissances. Les formes de conservation des connaissances (mémoire historique) sont diverses : des mythes, chroniques et pyramides aux bibliothèques, musées et bases de données informatiques.

Information - informations sur le monde qui nous entoure, sur les processus qui s'y déroulent et que les organismes vivants perçoivent, gestionnaires machines et autres systèmes d’information.

Le mot « information » est latin. Au cours de sa longue vie, sa signification a évolué, soit en élargissant, soit en rétrécissant considérablement ses limites. Au début, le mot « information » signifiait : « représentation », « concept », puis « information », « transmission de messages ».

Ces dernières années, les scientifiques ont jugé que le sens habituel (universellement accepté) du mot « information » était trop élastique et vague, et lui ont donné le sens suivant : « une mesure de certitude dans un message ».

Les informations sont

La théorie de l’information a pris vie grâce aux besoins de la pratique. Son apparition est associée à travail"Théorie mathématique de la communication" de Claude Shannon, publiée en 1946. Les principes fondamentaux de la théorie de l’information reposent sur les résultats obtenus par de nombreux scientifiques. Dans la seconde moitié du XXe siècle, le monde regorgeait d’informations transmises via des câbles téléphoniques et télégraphiques et des canaux radio. Plus tard, des ordinateurs électroniques sont apparus - des processeurs d'informations. Et à cette époque, la tâche principale de la théorie de l’information était avant tout d’augmenter l’efficacité des systèmes de communication. La difficulté de concevoir et d'exploiter des moyens, des systèmes et des canaux de communication est qu'il ne suffit pas au concepteur et à l'ingénieur de résoudre le problème d'un point de vue physique et énergétique. De ces points de vue, le système peut être le plus avancé et le plus économique. Mais lors de la création de systèmes de transmission, il est important de faire attention à la quantité d'informations qui transiteront par ce système de transmission. Après tout, l’information peut être mesurée quantitativement, comptée. Et dans de tels calculs, ils agissent de la manière la plus habituelle : ils font abstraction du sens du message, tout comme ils abandonnent le concret dans les opérations arithmétiques qui nous sont familières à tous (en passant de l'addition de deux pommes et de trois pommes à l'addition de nombres). en général : 2 + 3).

Les scientifiques ont déclaré qu'ils "ignoraient complètement l'évaluation humaine des informations". À une série séquentielle de 100 lettres, par exemple, ils attribuent une certaine signification à une information, sans se soucier de savoir si cette information a un sens et si, à son tour, elle a un sens dans une application pratique. L'approche quantitative est la branche la plus développée de la théorie de l'information. Selon cette définition, une collection de 100 lettres (une phrase de 100 lettres tirée d'un journal, d'une pièce de Shakespeare ou du théorème d'Einstein) contient exactement la même quantité d'informations.

Cette définition de la quantité d’informations est extrêmement utile et pratique. Cela correspond exactement à la tâche de l'ingénieur en communication, qui doit transmettre toutes les informations contenues dans le télégramme soumis, quelle que soit la valeur de ces informations pour le destinataire. Le canal de communication est sans âme. Une chose est importante pour le système de transmission : transmettre la quantité d'informations requise dans un certain temps. Comment calculer la quantité d'informations dans un message particulier ?

Les informations sont

L'estimation de la quantité d'informations est basée sur les lois de la théorie des probabilités, plus précisément, elle est déterminée par probabilitésévénements. C'est compréhensible. Un message n'a de valeur et n'est porteur d'information que lorsque nous en tirons des informations sur l'issue d'un événement de nature aléatoire, lorsqu'il est dans une certaine mesure inattendu. Après tout, le message sur ce qui est déjà connu ne contient aucune information. Ceux. Si, par exemple, quelqu'un vous appelle au téléphone et vous dit : « Il fait clair le jour et sombre la nuit », alors un tel message ne vous surprendra que par l'absurdité d'énoncer quelque chose d'évident et connu de tous, et non avec les nouvelles qu'il contient. Une autre chose, par exemple, est le résultat d'une course. Qui viendra en premier ? Le résultat ici est difficile à prédire : plus un événement qui nous intéresse a des résultats aléatoires, plus le message sur son résultat est précieux, plus il y a d'informations. Un message concernant un événement qui n'a que deux résultats également possibles contient une seule unité d'information appelée bit. Le choix de l'unité d'information n'est pas accidentel. Il est associé à la manière binaire la plus courante de le coder lors de la transmission et du traitement. Essayons, au moins sous la forme la plus simplifiée, d'imaginer le principe général de l'évaluation quantitative de l'information, qui est la pierre angulaire de toute théorie de l'information.

Nous savons déjà que la quantité d'informations dépend de probabilités certains résultats de l'événement. Si un événement, comme le disent les scientifiques, a deux résultats équiprobables, cela signifie que chaque résultat est égal à 1/2. Il s’agit de la probabilité d’obtenir pile ou face en lançant une pièce de monnaie. Si un événement a trois résultats équiprobables, alors la probabilité de chacun est de 1/3. Notez que la somme des probabilités de tous les résultats est toujours égale à un : après tout, l’un de tous les résultats possibles se produira certainement. Un événement, comme vous le comprenez vous-même, peut avoir des conséquences inégalement probables. Ainsi, dans un match de football entre une équipe forte et une équipe faible, la probabilité que l'équipe forte gagne est élevée - par exemple 4/5. il y a beaucoup moins de tirages, par exemple 3/20. La probabilité de défaite est très faible.

Il s'avère que la quantité d'informations est une mesure permettant de réduire l'incertitude d'une certaine situation. Différentes quantités d'informations sont transmises sur les canaux de communication, et la quantité d'informations transitant par le canal ne peut pas être supérieure à celle-ci. bande passante. Et cela est déterminé par la quantité d'informations qui transitent ici par unité de temps. L'un des héros du roman de Jules Verne « L'Île mystérieuse », a rapporté le journaliste Gideon Spillett. poste téléphonique chapitre de la Bible pour que ses concurrents ne puissent pas utiliser le service téléphonique. Dans ce cas, la chaîne était entièrement chargée et la quantité d'informations était égale à zéro, car les informations qu'il connaissait étaient transmises à l'abonné. Cela signifie que le canal fonctionnait au ralenti, transmettant un nombre strictement défini d'impulsions sans les charger de quoi que ce soit. Parallèlement, plus chacune d'un certain nombre d'impulsions transporte d'informations, plus la capacité du canal est utilisée pleinement. Par conséquent, vous devez encoder judicieusement les informations, trouver un langage économique et épuré pour transmettre les messages.

Les informations sont « passées au crible » de la manière la plus approfondie. Dans le télégraphe, les lettres fréquentes, les combinaisons de lettres, voire les phrases entières, sont représentées par un ensemble plus court de zéros et de uns, et celles qui apparaissent moins fréquemment sont représentées par un ensemble plus long. Dans le cas où la longueur du mot de code est réduite pour les symboles apparaissant fréquemment et augmentée pour ceux qui apparaissent rarement, ils parlent d'un codage efficace des informations. Mais dans la pratique, il arrive souvent que le code résultant du « criblage » le plus minutieux, le code qui est pratique et économique, puisse déformer le message en raison d'interférences, ce qui, malheureusement, se produit toujours dans les canaux de communication : le son distorsion dans le téléphone, interférences atmosphériques, distorsion ou assombrissement de l'image à la télévision, erreurs de transmission dans télégraphe. Cette interférence, ou comme l’appellent les experts, le bruit, attaque l’information. Et cela entraîne les surprises les plus incroyables et, bien sûr, les plus désagréables.

Par conséquent, pour augmenter la fiabilité de la transmission et du traitement des informations, il est nécessaire d'introduire des caractères supplémentaires - une sorte de protection contre la distorsion. Ils – ces symboles supplémentaires – ne véhiculent pas le contenu réel du message, ils sont redondants. Du point de vue de la théorie de l'information, tout ce qui rend un langage coloré, flexible, riche en nuances, multiforme, multi-valeurs est une redondance. Comme la lettre de Tatiana à Onéguine est redondante de ce point de vue ! Combien d'informations y a-t-il en excès pour un message bref et compréhensible « Je t'aime » ! Et à quel point les panneaux dessinés à la main sont précis sur le plan informatif, compréhensibles pour tous ceux qui entrent dans le métro aujourd'hui, où au lieu de mots et de phrases d'annonces, il y a des panneaux symboliques laconiques indiquant : « Entrée », « Sortie ».

À cet égard, il est utile de rappeler l'anecdote racontée un jour par le célèbre scientifique américain Benjamin Franklin à propos d'un fabricant de chapeaux qui invitait ses amis à discuter d'un projet d'enseigne. Il était censé dessiner un chapeau sur l'enseigne et écrire : « John Thompson , un chapelier, fabrique et vend des chapeaux contre de l’argent. Un de mes amis a remarqué que les mots « contre de l'argent » argent" sont inutiles - un tel rappel serait offensant pour acheteur. Un autre a également trouvé le mot « vend » superflu, car il va de soi que le chapelier vend des chapeaux et ne les distribue pas gratuitement. Le troisième pensait que les mots « chapelier » et « fabrique des chapeaux » étaient une tautologie inutile, et ces derniers mots ont été rejetés. Le quatrième a suggéré que le mot « chapelier » soit également supprimé - le chapeau peint indique clairement qui est John Thompson. Enfin, le cinquième a assuré que pour acheteur peu importait que le chapelier s'appelle John Thompson ou non, et proposait de supprimer cette indication : ainsi, au final, il ne restait plus rien sur l'enseigne, sauf le chapeau. Bien entendu, si les gens utilisaient uniquement ce type de codes, sans redondance dans les messages, alors toutes les « formes d’information » – livres, rapports, articles – seraient extrêmement brèves. Mais ils perdraient en clarté et en beauté.

Les informations peuvent être divisées en types selon différents critères : en vérité: vrai et faux;

en guise de perception :

Visuel - perçu par les organes de vision ;

Auditif - perçu par les organes de l'audition ;

Tactile - perçu par les récepteurs tactiles ;

Olfactif - perçu par les récepteurs olfactifs ;

Gustatif - perçu par les papilles gustatives.

selon formulaire de présentation :

Texte - transmis sous forme de symboles destinés à désigner des lexèmes de la langue ;

Numérique - sous forme de chiffres et de signes indiquant des opérations mathématiques ;

Graphique - sous forme d'images, d'objets, de graphiques ;

Son - transmission orale ou enregistrée de lexèmes linguistiques par des moyens auditifs.

volontairement:

Masse - contient des informations triviales et fonctionne avec un ensemble de concepts compréhensibles pour la plupart des membres de la société ;

Spécial - contient un ensemble spécifique de concepts ; lorsqu'elles sont utilisées, des informations sont transmises qui peuvent ne pas être compréhensibles pour la majeure partie de la société, mais qui sont nécessaires et compréhensibles au sein du groupe social restreint où elles sont utilisées. cette information;

Secret - transférable à un cercle étroit personnes et via des canaux fermés (sécurisés) ;

Personnel (privé) - un ensemble d'informations sur une personne qui détermine le statut social et les types d'interactions sociales au sein de la population.

par valeur :

Pertinent - informations précieuses à un moment donné ;

Fiable - informations obtenues sans distorsion ;

Compréhensible - information exprimée dans un langage compréhensible pour ceux à qui elle est destinée ;

Complet - informations suffisantes pour prendre la bonne décision ou comprendre ;

Utile - l'utilité de l'information est déterminée par le sujet qui a reçu l'information en fonction de l'étendue des possibilités de son utilisation.

La valeur de l'information dans divers domaines de la connaissance

En théorie de l’information, de nombreux systèmes, méthodes, approches et idées sont développés aujourd’hui. Cependant, les scientifiques estiment que de nouvelles orientations en matière de théorie de l'information s'ajouteront aux orientations modernes et que de nouvelles idées apparaîtront. Comme preuve de l'exactitude de leurs hypothèses, ils citent la nature « vivante » et évolutive de la science, soulignant que la théorie de l'information est étonnamment rapidement et fermement introduite dans les domaines les plus divers de la connaissance humaine. La théorie de l'information a pénétré la physique, la chimie, la biologie, la médecine, la philosophie, la linguistique, la pédagogie, l'économie, la logique, les sciences techniques et l'esthétique. Selon les experts eux-mêmes, la doctrine de l'information, née des besoins de la théorie des communications et de la cybernétique, a dépassé leurs frontières. Et maintenant, peut-être, nous avons le droit de parler de l'information comme d'un concept scientifique qui met entre les mains des chercheurs une méthode théorique et informationnelle avec laquelle on peut pénétrer dans de nombreuses sciences sur la nature vivante et inanimée, sur la société, qui non seulement permettent d’envisager tous les problèmes sous un nouvel angle, mais aussi de voir ce qui n’a pas encore été vu. C'est pourquoi le terme « information » s'est répandu à notre époque, faisant partie de concepts tels que le système d'information, la culture de l'information, voire l'éthique de l'information.

De nombreuses disciplines scientifiques utilisent la théorie de l’information pour mettre en évidence de nouvelles orientations dans les sciences anciennes. C’est ainsi qu’est née, par exemple, la géographie de l’information, l’économie de l’information et le droit de l’information. Mais le terme « information » a acquis une importance extrêmement grande en lien avec le développement des dernières technologies informatiques, l'automatisation du travail mental, le développement de nouveaux moyens de communication et de traitement de l'information, et surtout avec l'émergence de l'informatique. L'une des tâches les plus importantes de la théorie de l'information est l'étude de la nature et des propriétés de l'information, la création de méthodes pour la traiter, en particulier la transformation d'une grande variété d'informations modernes en programmes informatiques, à l'aide desquels l'automatisation du travail mental se produit - une sorte de renforcement de l'intelligence, et donc le développement des ressources intellectuelles de la société.

Le mot « information » vient du latin informatio, qui signifie information, explication, introduction. Le concept d'« information » est fondamental dans un cours d'informatique, mais il est impossible de le définir à travers d'autres concepts plus « simples ». Le concept d'« information » est utilisé dans diverses sciences, et dans chaque science le concept de « l’information » est associée à différents systèmes de concepts. L'information en biologie : La biologie étudie la nature vivante et le concept d'« information » est associé au comportement approprié des organismes vivants. Dans les organismes vivants, les informations sont transmises et stockées à l'aide d'objets de nature physique différente (état de l'ADN), qui sont considérés comme des signes d'alphabets biologiques. L'information génétique est héritée et stockée dans toutes les cellules des organismes vivants. Approche philosophique : l'information est interaction, réflexion, cognition. Approche cybernétique : l'information est une caractéristique directeur signal transmis sur une ligne de communication.

Le rôle de l'information en philosophie

Le traditionalisme du subjectif a constamment dominé les premières définitions de l'information en tant que catégorie, concept, propriété du monde matériel. L'information existe en dehors de notre conscience, et ne peut se refléter dans notre perception que grâce à une interaction : réflexion, lecture, réception sous forme de signal, stimulus. L’information n’est pas matérielle, comme toutes les propriétés de la matière. L'information se présente dans l'ordre suivant : matière, espace, temps, systématicité, fonction, etc., qui sont les concepts fondamentaux d'un reflet formalisé de la réalité objective dans sa distribution et sa variabilité, sa diversité et ses manifestations. L'information est une propriété de la matière et reflète ses propriétés (état ou capacité d'interagir) et sa quantité (mesure) à travers l'interaction.

D'un point de vue matériel, l'information est l'ordre des objets dans le monde matériel. Par exemple, l'ordre des lettres sur une feuille de papier selon certaines règles est une information écrite. L'ordre des points multicolores sur une feuille de papier selon certaines règles est une information graphique. L'ordre des notes de musique est une information musicale. L'ordre des gènes dans l'ADN est une information héréditaire. L'ordre des bits dans un ordinateur est une information informatique, etc. et ainsi de suite. Pour procéder à l'échange d'informations, la présence de conditions nécessaires et suffisantes est requise.

Les informations sont

Les conditions nécessaires :

La présence d'au moins deux objets différents du monde matériel ou immatériel ;

La présence d'une propriété commune entre les objets qui permet de les identifier comme porteurs d'informations ;

La présence d'une propriété spécifique dans les objets qui leur permet de distinguer les objets les uns des autres ;

La présence d'une propriété spatiale qui permet de déterminer l'ordre des objets. Par exemple, la disposition des informations écrites sur papier est une propriété spécifique du papier qui permet de disposer les lettres de gauche à droite et de haut en bas.

Il n’y a qu’une seule condition suffisante : la présence d’un sujet capable de reconnaître une information. C'est l'homme et la société humaine, les sociétés d'animaux, de robots, etc. Un message d'information est construit en sélectionnant des copies d'objets à partir d'une base et en disposant ces objets dans l'espace dans un certain ordre. La longueur du message d'information est définie comme le nombre de copies des objets de base et est toujours exprimée sous forme d'entier. Il est nécessaire de faire la distinction entre la longueur d'un message d'information, qui est toujours mesurée en nombre entier, et la quantité de connaissances contenues dans un message d'information, qui est mesurée dans une unité de mesure inconnue. D'un point de vue mathématique, l'information est une séquence d'entiers écrits dans un vecteur. Les nombres sont le numéro d'objet dans la base d'informations. Le vecteur est appelé invariant d’information, car il ne dépend pas de la nature physique des objets de base. Le même message d'information peut être exprimé sous forme de lettres, de mots, de phrases, de fichiers, d'images, de notes, de chansons, de clips vidéo, ou de toute combinaison de tout ce qui précède.

Les informations sont

Le rôle de l'information en physique

l'information est une information sur le monde environnant (objet, processus, phénomène, événement), qui fait l'objet de transformation (y compris le stockage, la transmission, etc.) et est utilisée pour développer des comportements, pour la prise de décision, pour la gestion ou pour l'apprentissage.

Les éléments caractéristiques des informations sont les suivants :

Il s’agit de la ressource la plus importante de la production moderne : elle réduit les besoins en terres, en main-d’œuvre, en capital et réduit la consommation de matières premières et d’énergie. Ainsi, par exemple, si vous avez la possibilité d’archiver vos fichiers (c’est-à-dire de disposer de telles informations), vous n’avez pas à dépenser d’argent pour acheter de nouvelles disquettes ;

L'information donne vie à de nouvelles productions. Par exemple, l'invention du faisceau laser a été à l'origine de l'émergence et du développement de la production de disques laser (optiques) ;

L'information est une marchandise et l'information n'est pas perdue après la vente. Ainsi, si un étudiant communique à son ami des informations sur l'horaire des cours au cours du semestre, il ne perdra pas ces données pour lui-même ;

L'information ajoute de la valeur à d'autres ressources, en particulier au travail. En effet, un travailleur ayant fait des études supérieures est plus valorisé qu’un travailleur ayant fait des études secondaires.

Comme il ressort de la définition, trois concepts sont toujours associés à l'information :

La source d'information est cet élément du monde environnant (objet, phénomène, événement), dont l'information fait l'objet de transformation. Ainsi, la source d'information que reçoit actuellement le lecteur de ce manuel est l'informatique en tant que sphère de l'activité humaine ;

L'acquéreur d'informations est cet élément du monde environnant qui utilise l'information (pour développer un comportement, prendre des décisions, gérer ou apprendre). L'acheteur de ces informations est le lecteur lui-même ;

Un signal est un support matériel qui enregistre des informations pour les transférer de la source au destinataire. Dans ce cas, le signal est de nature électronique. Si un étudiant prend ce manuel à la bibliothèque, les mêmes informations seront alors sur papier. Après avoir été lue et mémorisée par l'étudiant, l'information acquerra un autre support - biologique, lorsqu'elle sera « enregistrée » dans la mémoire de l'étudiant.

Le signal est l'élément le plus important de ce circuit. Les formes de sa présentation, ainsi que les caractéristiques quantitatives et qualitatives des informations qu'elle contient, qui sont importantes pour l'acquéreur de l'information, sont discutées plus en détail dans cette section du manuel. Les principales caractéristiques d'un ordinateur en tant qu'outil principal qui mappe la source d'information en un signal (lien 1 sur la figure) et « amène » le signal au destinataire de l'information (lien 2 sur la figure) sont données dans la section Ordinateur. . La structure des procédures qui mettent en œuvre les connexions 1 et 2 et constituent le processus d'information fait l'objet d'une réflexion dans la partie Processus d'information.

Les objets du monde matériel sont dans un état de changement continu, caractérisé par l'échange d'énergie entre l'objet et l'environnement. Un changement dans l’état d’un objet entraîne toujours un changement dans l’état d’un autre objet environnemental. Ce phénomène, quels que soient la manière dont les états et les objets ont changé, peut être considéré comme la transmission d'un signal d'un objet à un autre. Changer l'état d'un objet lorsqu'un signal lui est transmis est appelé enregistrement de signal.

Un signal ou une séquence de signaux forme un message qui peut être perçu par le destinataire sous une forme ou une autre, ainsi que dans l'un ou l'autre volume. L'information en physique est un terme qui généralise qualitativement les concepts de « signal » et de « message ». Si les signaux et les messages peuvent être quantifiés, alors nous pouvons dire que les signaux et les messages sont des unités de mesure du volume d'informations. Le message (signal) est interprété différemment par différents systèmes. Par exemple, successivement longs et deux courts signaux sonores dans la terminologie du code Morse, il s'agit de la lettre de (ou D), dans la terminologie du BIOS de la société primée, il s'agit d'un dysfonctionnement de la carte vidéo.

Les informations sont

Le rôle de l'information en mathématiques

En mathématiques, la théorie de l'information (théorie mathématique de la communication) est une section des mathématiques appliquées qui définit le concept d'information, ses propriétés et établit des relations limites pour les systèmes de transmission de données. Les principales branches de la théorie de l'information sont le codage source (codage par compression) et le codage canal (résistant au bruit). Les mathématiques sont plus qu'une discipline scientifique. Cela crée un langage unifié pour toute la science.

Le sujet de la recherche mathématique concerne les objets abstraits : nombre, fonction, vecteur, ensemble et autres. De plus, la plupart d'entre eux sont introduits de manière axiomatique (axiome), c'est-à-dire sans aucun lien avec d’autres concepts et sans aucune définition.

Les informations sont

l’information n’est pas incluse dans le champ de la recherche en mathématiques. Cependant, le mot « information » est utilisé en termes mathématiques – auto-information et information mutuelle, liés à la partie abstraite (mathématique) de la théorie de l'information. Cependant, dans la théorie mathématique, le concept d'« information » est associé à des objets exclusivement abstraits - des variables aléatoires, tandis que dans la théorie de l'information moderne, ce concept est considéré beaucoup plus largement - comme une propriété des objets matériels. Le lien entre ces deux termes identiques est indéniable. C'est l'appareil mathématique des nombres aléatoires qui a été utilisé par l'auteur de la théorie de l'information, Claude Shannon. Lui-même entend par le terme « information » quelque chose de fondamental (d’irréductible). La théorie de Shannon suppose intuitivement que l’information a un contenu. L’information réduit l’incertitude globale et l’entropie de l’information. La quantité d’informations est mesurable. Il met toutefois en garde les chercheurs contre le transfert mécanique de concepts de sa théorie vers d’autres domaines scientifiques.

"La recherche de moyens d'appliquer la théorie de l'information à d'autres domaines scientifiques ne se résume pas à un transfert trivial de termes d'un domaine scientifique à un autre. Cette recherche s'effectue dans le cadre d'un long processus de proposition de nouvelles hypothèses et de leurs tests expérimentaux. .» K. Shannon.

Les informations sont

Le rôle de l'information en cybernétique

Le fondateur de la cybernétique, Norbert Wiener, a parlé d'informations comme celle-ci :

l'information n'est pas de la matière ou de l'énergie, l'information est de l'information. » Mais la définition fondamentale de l'information, qu'il a donnée dans plusieurs de ses livres, est la suivante : l'information est une désignation d'un contenu que nous recevons du monde extérieur, en train de en nous adaptant ainsi que nos sentiments.

L’information est le concept de base de la cybernétique, tout comme l’information économique est le concept de base de la cybernétique économique.

Il existe de nombreuses définitions de ce terme, elles sont complexes et contradictoires. La raison, évidemment, est que la cybernétique en tant que phénomène est étudiée par différentes sciences, et la cybernétique n’est que la plus jeune d’entre elles. L'information fait l'objet d'études dans des sciences telles que les sciences de gestion, les mathématiques, la génétique et la théorie des médias de masse (imprimé, radio, télévision), l'informatique, qui traite des problèmes de l'information scientifique et technique, etc. Enfin, récemment, les philosophes ont manifesté un grand intérêt pour les problèmes de l'information : ils ont tendance à considérer l'information comme l'une des principales propriétés universelles de la matière, associée avec la notion de réflexion. Avec toutes les interprétations du concept d'information, il présuppose l'existence de deux objets : la source de l'information et l'acquéreur (destinataire) de l'information. Le transfert d'informations de l'un à l'autre s'effectue à l'aide de signaux qui, d'une manière générale, ne peut avoir aucun lien physique avec sa signification : cette communication est déterminée d’un commun accord. Par exemple, sonner la cloche du veche signifiait qu'il fallait se rassembler pour la place, mais à ceux qui ne connaissaient pas cet ordre, il ne communiquait aucune information.

Dans une situation avec une cloche de veche, la personne participant à l'accord sur la signification du signal sait qu'à l'heure actuelle il peut y avoir deux alternatives : la réunion de veche aura lieu ou non. Ou, dans le langage de la théorie de l’information, un événement incertain (veche) a deux conséquences. Le signal reçu entraîne une diminution de l'incertitude : la personne sait désormais que l'événement (la soirée) n'a qu'une seule issue : il aura lieu. Or, si l'on savait d'avance que la réunion aurait lieu à telle ou telle heure, la cloche n'annonçait rien de nouveau. Il s'ensuit que moins le message est probable (c'est-à-dire plus inattendu), plus il contient d'informations, et vice versa, plus la probabilité du résultat avant que l'événement ne se produise est grande, moins il contient d'informations. À peu près le même raisonnement a été avancé dans les années 40. XXe siècle à l'émergence d'une théorie statistique, ou « classique » de l'information, qui définit la notion d'information à travers la mesure de réduction de l'incertitude de la connaissance sur l'occurrence d'un événement (cette mesure était appelée entropie). Les origines de cette science étaient N. Wiener, K. Shannon et les scientifiques soviétiques A. N. Kolmogorov, V. A. Kotelnikov et d'autres. Ils ont pu dériver des lois mathématiques pour mesurer la quantité d'informations, et donc des concepts tels que la capacité du canal et la capacité de stockage. de I. appareils, etc., qui ont constitué une puissante incitation au développement de la cybernétique en tant que science et de la technologie informatique électronique en tant qu'application pratique des réalisations de la cybernétique.

Quant à la détermination de la valeur et de l’utilité des informations pour le destinataire, de nombreuses questions restent encore en suspens et floues. Si nous partons des besoins de la gestion économique et, par conséquent, de la cybernétique économique, alors l'information peut être définie comme l'ensemble des informations, connaissances et messages qui aident à résoudre un problème de gestion particulier (c'est-à-dire à réduire l'incertitude de ses résultats). Certaines opportunités s'ouvrent alors pour évaluer l'information : elle est plus utile, plus précieuse, plus tôt ou avec moins frais conduit à une solution au problème. La notion d'information est proche de la notion de données. Il existe cependant une différence entre elles : les données sont des signaux à partir desquels des informations doivent encore être extraites. Le traitement des données est le processus consistant à les mettre sous une forme appropriée.

Le processus de leur transfert de la source au destinataire et de leur perception en tant qu'information peut être considéré comme passant à travers trois filtres :

Physique ou statistique (limitation purement quantitative de la capacité du canal, quel que soit le contenu des données, c'est-à-dire du point de vue syntaxique) ;

Sémantique (sélection des données compréhensibles par le destinataire, c'est-à-dire correspondant au thésaurus de ses connaissances) ;

Pragmatique (sélection parmi les informations comprises de celles qui sont utiles à la résolution d'un problème donné).

Ceci est clairement montré dans le diagramme tiré du livre d’E. G. Yasin sur l’information économique. En conséquence, trois aspects de l'étude des problèmes linguistiques sont distingués : syntaxique, sémantique et pragmatique.

Selon le contenu, l'information est divisée en informations socio-politiques, socio-économiques (y compris économiques), scientifiques et techniques, etc. En général, il existe de nombreuses classifications d'informations, elles reposent sur diverses bases. En règle générale, en raison de la proximité des concepts, les classifications des données sont construites de la même manière. Par exemple, les informations sont divisées en statiques (constantes) et dynamiques (variables), et les données sont divisées en constantes et variables. Une autre division concerne les informations de sortie primaires, dérivées (les données sont également classées de la même manière). La troisième division est I. contrôler et informer. Quatrièmement - redondant, utile et faux. Cinquièmement - complet (continu) et sélectif. Cette idée de Wiener donne une indication directe de l'objectivité de l'information, c'est-à-dire son existence dans la nature est indépendante de la conscience humaine (perception).

Les informations sont

La cybernétique moderne définit l'information objective comme la propriété objective des objets et phénomènes matériels de générer une variété d'états qui, à travers les interactions fondamentales de la matière, sont transmises d'un objet (processus) à un autre et sont imprimées dans sa structure. Un système matériel en cybernétique est considéré comme un ensemble d'objets qui peuvent eux-mêmes être dans différents états, mais l'état de chacun d'eux est déterminé par les états des autres objets du système.

Les informations sont

Dans la nature, de nombreux états d'un système représentent des informations ; les états eux-mêmes représentent le code primaire, ou code source. Ainsi, tout système matériel est une source d’information. La cybernétique définit l'information subjective (sémantique) comme la signification ou le contenu d'un message.

Le rôle de l'information en informatique

Le sujet de la science, ce sont les données : leurs modalités de création, de stockage, de traitement et de transmission. Le contenu (aussi : « contenu » (en contexte), « contenu du site ») est un terme désignant tous types d'informations (tant textuelles que multimédias - images, audio, vidéo) qui composent le contenu (visualisé, pour le visiteur, contenu ) du site Web. Il permet de séparer la notion d'information qui constitue la structure interne d'une page/site (code) de ce qui sera finalement affiché à l'écran.

Le mot « information » vient du latin informatio, qui signifie information, explication, introduction. La notion d’« information » est fondamentale dans un cours d’informatique, mais il est impossible de la définir à travers d’autres concepts plus « simples ».

Les approches suivantes pour déterminer les informations peuvent être distinguées :

Traditionnel (ordinaire) - utilisé en informatique : les informations sont des informations, des connaissances, des messages sur l'état des choses qu'une personne perçoit du monde extérieur à l'aide des sens (vision, ouïe, goût, odorat, toucher).

Probabiliste - utilisé dans la théorie de l'information : l'information est une information sur les objets et phénomènes de l'environnement, leurs paramètres, leurs propriétés et leur état, qui réduisent le degré d'incertitude et le caractère incomplet des connaissances à leur sujet.

Les informations sont stockées, transmises et traitées sous forme symbolique (signe). Les mêmes informations peuvent être présentées sous différentes formes :

Écriture de signes, composée de divers signes, parmi lesquels se distinguent des signes symboliques sous forme de texte, de chiffres, de spéciaux. personnages; graphique; tabulaire, etc.;

Sous forme de gestes ou de signaux ;

Forme verbale orale (conversation).

Les informations sont présentées à l'aide de langues telles que des systèmes de signes, qui sont construits sur la base d'un alphabet spécifique et comportent des règles pour effectuer des opérations sur les signes. La langue est un système de signes spécifique pour présenter des informations. Exister:

Les langues naturelles sont des langues parlées sous forme parlée et écrite. Dans certains cas, le langage parlé peut être remplacé par le langage des expressions faciales et des gestes, le langage des panneaux spéciaux (par exemple, les panneaux routiers) ;

Les langues formelles sont des langues spéciales pour divers domaines de l'activité humaine, caractérisées par un alphabet strictement fixe et des règles de grammaire et de syntaxe plus strictes. C'est le langage de la musique (notes), le langage des mathématiques (nombres, symboles mathématiques), les systèmes numériques, les langages de programmation, etc. La base de toute langue est l’alphabet – un ensemble de symboles/signes. Le nombre total de symboles de l’alphabet est généralement appelé la puissance de l’alphabet.

Un support d'information est un support ou un corps physique permettant de transmettre, de stocker et de reproduire des informations. (Ils sont électriques, lumineux, thermiques, sonores, radio signaux, disques magnétiques et laser, publications imprimées, photographies, etc.)

Les processus d'information sont des processus associés à la réception, au stockage, au traitement et à la transmission d'informations (c'est-à-dire des actions effectuées avec des informations). Ceux. Il s'agit de processus au cours desquels le contenu de l'information ou la forme de sa présentation change.

Pour assurer le processus d'information, il faut une source d'information, un canal de communication et un acheteur d'information. La source transmet (envoie) des informations et le récepteur les reçoit (les perçoit). Les informations transmises voyagent de la source au récepteur à l'aide d'un signal (code). Changer le signal permet d'obtenir des informations.

Étant un objet de transformation et d'utilisation, l'information se caractérise par les propriétés suivantes :

La syntaxe est une propriété qui détermine la manière dont les informations sont présentées sur un support (dans un signal). Ainsi, ces informations sont présentées sur des supports électroniques à l'aide d'une police spécifique. Ici, vous pouvez également prendre en compte des paramètres de présentation d'informations tels que le style et la couleur de la police, sa taille, l'espacement des lignes, etc. Sélection paramètres requis car les propriétés syntaxiques sont évidemment déterminées par la méthode de transformation envisagée. Par exemple, pour une personne malvoyante, la taille et la couleur de la police sont importantes. Si vous envisagez de saisir ce texte dans un ordinateur via un scanner, le format du papier est important ;

La sémantique est une propriété qui détermine la signification de l'information comme la correspondance du signal avec le monde réel. Ainsi, la sémantique du signal « informatique » réside dans la définition donnée précédemment. La sémantique peut être considérée comme un accord, connu de l'acquéreur de l'information, sur la signification de chaque signal (ce qu'on appelle la règle d'interprétation). Par exemple, c'est la sémantique des signaux qu'un automobiliste novice étudie, étudiant le code de la route, apprenant la signalisation routière (dans ce cas, les panneaux eux-mêmes sont les signaux). La sémantique des mots (signaux) est apprise par un étudiant d'une langue étrangère. On peut dire que l'intérêt de l'enseignement de l'informatique est d'étudier la sémantique de divers signaux - l'essence des concepts clés de cette discipline ;

La pragmatique est une propriété qui détermine l'influence de l'information sur le comportement de l'acquéreur. Ainsi, la pragmatique des informations reçues par le lecteur de ce manuel est, à tout le moins, la réussite de l'examen d'informatique. J'aimerais croire que la pragmatique de ce travail ne se limitera pas à cela et qu'il servira à la formation continue et aux activités professionnelles du lecteur.

Les informations sont

Il convient de noter que les signaux dont la syntaxe diffère peuvent avoir la même sémantique. Par exemple, les signaux « ordinateur » et « ordinateur » signifient appareil électronique pour transformer l'information. Dans ce cas, on parle généralement de synonymie de signal. D’un autre côté, un signal (c’est-à-dire une information avec une propriété syntaxique) peut avoir une pragmatique différente pour les consommateurs et une sémantique différente. Ainsi, un panneau routier dit « brique » et ayant une sémantique bien particulière (« entrée interdite ») signifie pour un automobiliste une interdiction d'entrée, mais n'a aucun effet pour un piéton. Parallèlement, le signal « clé » peut avoir différentes sémantiques : une clé de sol, une clé à ressort, une clé pour ouvrir une serrure, une clé utilisée en informatique pour coder un signal afin de le protéger d'un accès non autorisé (en dans ce cas, ils parlent d'homonymie du signal). Il existe des signaux - des antonymes qui ont une sémantique opposée. Par exemple, « froid » et « chaud », « rapide » et « lent », etc.

Le sujet d'étude de la science informatique concerne les données : leurs méthodes de création, de stockage, de traitement et de transmission. Et l'information elle-même enregistrée dans les données, sa signification significative, intéresse les utilisateurs des systèmes d'information spécialistes de diverses sciences et domaines d'activité : un médecin s'intéresse à l'information médicale, un géologue s'intéresse à l'information géologique, un homme d'affaires est intéressé par des informations commerciales, etc. (En particulier, un informaticien s'intéresse aux informations sur l'utilisation des données).

Sémiotique - science de l'information

L'information ne peut être imaginée sans sa réception, son traitement, sa transmission, etc., c'est-à-dire en dehors du cadre de l'échange d'informations. Tous les actes d'échange d'informations s'effectuent au moyen de symboles ou de signes, à l'aide desquels un système en influence un autre. Par conséquent, la principale science qui étudie l'information est la sémiotique - la science des signes et des systèmes de signes dans la nature et la société (théorie des signes). Dans chaque acte d'échange d'informations, on peut trouver trois « participants », trois éléments : un signe, un objet qu'il désigne et un destinataire (utilisateur) du signe.

Selon les relations entre les éléments considérés, la sémiotique est divisée en trois sections : syntaxique, sémantique et pragmatique. La syntaxe étudie les signes et les relations entre eux. En même temps, il fait abstraction du contenu du signe et de sa signification pratique pour le destinataire. La sémantique étudie la relation entre les signes et les objets qu'ils désignent, en faisant abstraction du destinataire des signes et de la valeur de ce dernier : pour lui. Il est clair qu'il est impossible d'étudier les modèles de représentation sémantique des objets dans les signes sans prendre en compte et utiliser les modèles généraux de construction de tout système de signes étudié par la syntaxe. La pragmatique étudie la relation entre les signes et leurs utilisateurs. Dans le cadre de la pragmatique, tous les facteurs qui distinguent un acte d'échange d'informations d'un autre, toutes les questions des résultats pratiques de l'utilisation de l'information et de sa valeur pour le destinataire sont étudiés.

Dans ce cas, de nombreux aspects des relations des signes entre eux et avec les objets qu'ils désignent sont inévitablement affectés. Ainsi, les trois sections de la sémiotique correspondent à trois niveaux d’abstraction (distraction) des caractéristiques d’actes spécifiques d’échange d’informations. L'étude de l'information dans toute sa diversité correspond au niveau pragmatique. En distrayant le destinataire de l'information, en l'excluant de la considération, nous passons à son étude au niveau sémantique. Avec l'abstraction du contenu des signes, l'analyse de l'information est transférée au niveau syntaxique. Cette interpénétration des principales sections de la sémiotique, associées à différents niveaux d'abstraction, peut être représentée à l'aide du schéma « Trois sections de la sémiotique et leur interrelation ». La mesure de l'information s'effectue ainsi sous trois aspects : syntaxique, sémantique et pragmatique. Le besoin de dimensions d'information aussi différentes, comme nous le verrons ci-dessous, est dicté par la pratique de conception et entreprises fonctionnement des systèmes d’information. Considérons une situation de production typique.

À la fin du quart de travail, le planificateur de chantier prépare les données du calendrier de production. Ces données entrent dans le centre d'information et de calcul (ICC) de l'entreprise, où elles sont traitées, et sous forme de rapports sur l'état actuel de la production sont transmises aux dirigeants. Sur la base des données reçues, le chef d'atelier prend la décision de modifier le plan de production par le prochain prévu ou de prendre toute autre mesure organisationnelle. Évidemment, pour le gérant du magasin, la quantité d'informations contenues dans le résumé dépend de l'ampleur de l'impact économique résultant de son utilisation dans la prise de décision, de l'utilité des informations reçues. Pour le planificateur du site, la quantité d'informations contenues dans un même message est déterminée par l'exactitude de sa correspondance avec la situation réelle sur le site et le degré de surprise des faits rapportés. Plus ils sont inattendus, plus tôt vous devez les signaler à la direction, plus ce message contient d'informations. Pour les travailleurs d'ICC, le nombre de caractères et la longueur du message porteur d'informations seront d'une importance primordiale, puisque c'est cela qui détermine le temps de chargement des équipements informatiques et des canaux de communication. En même temps, ils ne s'intéressent pratiquement ni à l'utilité de l'information ni à la mesure quantitative de la valeur sémantique de l'information.

Naturellement, lors de l'organisation d'un système de gestion de la production et de la construction de modèles de sélection de décisions, nous utiliserons l'utilité de l'information comme mesure du caractère informatif des messages. Lors de la construction d'un système comptabilité et des rapports qui fournissent des indications sur l'avancement du processus de production, la mesure de la quantité d'informations doit être considérée comme la nouveauté des informations reçues. Entreprise Les mêmes procédures de traitement mécanique de l'information nécessitent de mesurer le volume des messages sous la forme du nombre de caractères traités. Ces trois approches fondamentalement différentes de la mesure de l’information ne sont ni contradictoires ni mutuellement exclusives. Au contraire, en mesurant l'information à différentes échelles, ils permettent une évaluation plus complète et plus complète du contenu informationnel de chaque message et organisent plus efficacement un système de gestion de production. Selon l'expression pertinente du Prof. PAS. Kobrinsky, lorsqu'il s'agit d'une entreprise rationnelle de flux d'informations, la quantité, la nouveauté et l'utilité de l'information sont aussi interconnectées que la quantité, la qualité et le coût des produits en production.

L'information dans le monde matériel

l'information est l'un des concepts généraux associés à la matière. L'information existe dans tout objet matériel sous la forme d'une variété de ses états et est transférée d'objet en objet au cours de leur interaction. L'existence de l'information en tant que propriété objective de la matière découle logiquement des propriétés fondamentales connues de la matière - structure, changement continu (mouvement) et interaction des objets matériels.

La structure de la matière se manifeste comme le démembrement interne de l'intégrité, l'ordre naturel de connexion des éléments au sein du tout. En d’autres termes, tout objet matériel, depuis la particule subatomique du métaunivers (Big Bang) dans son ensemble, est un système de sous-systèmes interconnectés. En raison du mouvement continu, entendu au sens large comme mouvement dans l’espace et évolution dans le temps, les objets matériels changent d’état. Les états des objets changent également lors des interactions avec d'autres objets. L'ensemble des états d'un système matériel et de tous ses sous-systèmes représente des informations sur le système.

À proprement parler, en raison de l’incertitude, de l’infini et des propriétés de la structure, la quantité d’informations objectives contenues dans tout objet matériel est infinie. Cette information est dite complète. Cependant, il est possible de distinguer des niveaux structurels comportant des ensembles finis d’états. Les informations qui existent à un niveau structurel avec un nombre fini d’états sont dites privées. Pour les informations privées, la notion de quantité d’informations prend tout son sens.

A partir de la présentation ci-dessus, il est logique et simple de sélectionner une unité de mesure pour la quantité d'informations. Imaginons un système qui ne peut se trouver que dans deux états équiprobables. Attribuons le code « 1 » à l'un d'eux et « 0 » à l'autre. Il s'agit de la quantité minimale d'informations que le système peut contenir. C'est une unité de mesure de l'information et s'appelle un bit. Il existe d'autres méthodes et unités, plus difficiles à définir, pour mesurer la quantité d'informations.

Selon la forme matérielle du support, les informations sont de deux types principaux : analogiques et discrètes. Les informations analogiques changent continuellement au fil du temps et prennent des valeurs dans un continuum de valeurs. Les informations discrètes changent à certains moments et prennent des valeurs à partir d'un certain ensemble de valeurs. Tout objet ou processus matériel est la principale source d’information. Tous ses états possibles constituent le code source de l'information. La valeur instantanée des états est représentée sous la forme d'un symbole (« lettre ») de ce code. Pour que les informations soient transmises d'un objet à un autre en tant que récepteur, il est nécessaire qu'il existe une sorte de support matériel intermédiaire qui interagit avec la source. En règle générale, de tels porteurs dans la nature sont des processus de propagation rapide de la structure des ondes - rayonnements cosmiques, gamma et X, électromagnétiques et les ondes sonores, potentiels (et peut-être des ondes pas encore découvertes) du champ gravitationnel. Lorsqu'un rayonnement électromagnétique interagit avec un objet par absorption ou réflexion, son spectre change, c'est-à-dire les intensités de certaines longueurs d'onde changent. Les harmoniques des vibrations sonores changent également lors des interactions avec les objets. Les informations sont également transmises par interaction mécanique, mais l'interaction mécanique entraîne généralement des changements importants dans la structure des objets (jusqu'à leur destruction) et les informations sont fortement déformées. La distorsion de l'information lors de sa transmission est appelée désinformation.

Le transfert des informations source vers la structure du support est appelé codage. Dans ce cas, le code source est converti en code transporteur. Le support sur lequel le code source est transféré sous la forme d'un code porteur est appelé signal. Le récepteur de signal possède son propre ensemble d’états possibles, appelé code du récepteur. Un signal, interagissant avec un objet récepteur, change d'état. Le processus de conversion d'un code de signal en code de récepteur est appelé décodage. Le transfert d'informations d'une source à un récepteur peut être considéré comme une interaction d'informations. L'interaction informationnelle est fondamentalement différente des autres interactions. Dans toutes les autres interactions d'objets matériels, un échange de matière et (ou) d'énergie se produit. Dans ce cas, l’un des objets perd de la matière ou de l’énergie et l’autre en gagne. Cette propriété des interactions est appelée symétrie. Lors de l'interaction d'informations, le récepteur reçoit des informations, mais la source ne les perd pas. L'interaction de l'information est asymétrique. L'information objective en elle-même n'est pas matérielle, c'est une propriété de la matière, comme la structure, le mouvement, et existe sur les supports matériels sous la forme de ses propres codes.

Informations sur la faune

La faune est complexe et diversifiée. Les sources et les récepteurs d'informations qu'il contient sont les organismes vivants et leurs cellules. Un organisme possède un certain nombre de propriétés qui le distinguent des objets matériels inanimés.

Basique:

Échange continu de matière, d'énergie et d'informations avec l'environnement ;

Irritabilité, la capacité du corps à percevoir et à traiter les informations sur les changements dans l’environnement et l’environnement interne du corps ;

Excitabilité, la capacité de répondre aux stimuli ;

Auto-organisation, se manifestant par des changements dans le corps pour s'adapter aux conditions environnementales.

Un organisme, considéré comme un système, possède une structure hiérarchique. Cette structure relative à l'organisme lui-même est divisée en niveaux internes : niveau moléculaire, cellulaire, organique et, enfin, l'organisme lui-même. Cependant, l'organisme interagit également au-dessus des systèmes vivants, dont les niveaux sont la population, l'écosystème et l'ensemble de la nature vivante (biosphère). Entre tous ces niveaux circulent non seulement des flux de matière et d'énergie, mais aussi des informations. Les interactions d'informations dans la nature vivante se produisent de la même manière que dans la nature inanimée. Dans le même temps, la nature vivante en cours d'évolution a créé une grande variété de sources, de porteurs et de récepteurs d'informations.

La réaction aux influences du monde extérieur se manifeste dans tous les organismes, puisqu'elle est provoquée par l'irritabilité. Chez les organismes supérieurs, l'adaptation à l'environnement extérieur est une activité complexe, qui n'est efficace qu'avec des informations suffisamment complètes et opportunes sur l'environnement. Les récepteurs des informations provenant de l’environnement extérieur sont leurs organes sensoriels, qui comprennent la vision, l’ouïe, l’odorat, le goût, le toucher et l’appareil vestibulaire. Dans la structure interne des organismes, il existe de nombreux récepteurs internes associés au système nerveux. Le système nerveux est constitué de neurones dont les processus (axones et dendrites) sont analogues aux canaux de transmission d'informations. Les principaux organes qui stockent et traitent les informations chez les vertébrés sont la moelle épinière et le cerveau. Conformément aux caractéristiques des sens, les informations perçues par le corps peuvent être classées en visuelles, auditives, gustatives, olfactives et tactiles.

Lorsque le signal atteint la rétine de l’œil humain, il excite d’une manière particulière ses cellules constitutives. Les influx nerveux des cellules sont transmis par les axones au cerveau. Le cerveau se souvient de cette sensation sous la forme d'une certaine combinaison d'états de ses neurones constitutifs. (L'exemple se poursuit dans la section « L'information dans la société humaine »). En accumulant des informations, le cerveau crée un modèle d’information connecté du monde environnant sur sa structure. Dans la nature vivante, une caractéristique importante pour un organisme qui reçoit des informations est sa disponibilité. La quantité d'informations que le système nerveux humain est capable d'envoyer au cerveau lors de la lecture de textes est d'environ 1 bit par 1/16 s.

Les informations sont

L'étude des organismes est compliquée par leur complexité. L'abstraction de la structure en tant qu'ensemble mathématique, acceptable pour les objets inanimés, est difficilement acceptable pour un organisme vivant, car pour créer un modèle abstrait plus ou moins adéquat d'un organisme, il faut prendre en compte tous les éléments hiérarchiques. niveaux de sa structure. Il est donc difficile d’introduire une mesure de la quantité d’informations. Il est très difficile de déterminer les connexions entre les composants de la structure. Si l’on sait quel organe est la source de l’information, alors quel est le signal et quel est le récepteur ?

Avant l’avènement des ordinateurs, la biologie, qui s’occupe de l’étude des organismes vivants, utilisait uniquement des analyses qualitatives, c’est-à-dire modèles descriptifs. Dans un modèle qualitatif, il est quasiment impossible de prendre en compte les liens informationnels entre les composants de la structure. La technologie informatique électronique a permis d'appliquer de nouvelles méthodes à la recherche biologique, en particulier la méthode de modélisation mécanique, qui implique une description mathématique de phénomènes et de processus connus se produisant dans le corps, en y ajoutant des hypothèses sur certains processus inconnus et en calculant le comportement possible. modèles de l’organisme. Les options qui en résultent sont comparées au comportement réel de l'organisme, ce qui permet de déterminer la vérité ou la fausseté des hypothèses avancées. De tels modèles peuvent également prendre en compte l’interaction des informations. Les processus d'information qui assurent l'existence de la vie elle-même sont extrêmement complexes. Et bien qu'il soit intuitivement clair que cette propriété est directement liée à la formation, au stockage et à la transmission d'informations complètes sur la structure de l'organisme, une description abstraite de ce phénomène a semblé impossible pendant un certain temps. Cependant, les processus informationnels qui assurent l’existence de cette propriété ont été partiellement révélés grâce au déchiffrement du code génétique et à la lecture du génome de divers organismes.

L'information dans la société humaine

Le développement de la matière en cours de mouvement vise à compliquer la structure des objets matériels. L’une des structures les plus complexes est le cerveau humain. Jusqu'à présent, c'est la seule structure que nous connaissons qui possède une propriété que l'homme lui-même appelle conscience. En parlant d'information, nous, en tant qu'êtres pensants, entendons a priori que l'information, en plus de sa présence sous la forme de signaux que nous recevons, a également une certaine signification. Formant dans son esprit un modèle du monde environnant en tant qu'ensemble interconnecté de modèles de ses objets et processus, une personne utilise des concepts sémantiques et non des informations. Le sens est l’essence de tout phénomène qui ne coïncide pas avec lui-même et le relie au contexte plus large de la réalité. Le mot lui-même indique directement que le contenu sémantique de l'information ne peut être formé que par des récepteurs pensants de l'information. Dans la société humaine, ce n’est pas l’information elle-même qui revêt une importance décisive, mais son contenu sémantique.

Exemple (suite). Ayant éprouvé une telle sensation, une personne attribue le concept « tomate » à l'objet et le concept « couleur rouge » à son état. De plus, sa conscience fixe le lien : « tomate » - « rouge ». C'est la signification du signal reçu. (Exemple continué ci-dessous dans cette section). La capacité du cerveau à créer des concepts significatifs et des connexions entre eux constitue la base de la conscience. La conscience peut être considérée comme un modèle sémantique auto-développé du monde environnant. Le sens n'est pas une information. L'information n'existe que sur un support tangible. La conscience humaine est considérée comme immatérielle. Le sens existe dans l’esprit humain sous forme de mots, d’images et de sensations. Une personne peut prononcer des mots non seulement à voix haute, mais aussi « pour elle-même ». Il peut également créer (ou mémoriser) des images et des sensations « dans son propre esprit ». Il peut cependant récupérer des informations correspondant à cette signification en parlant ou en écrivant des mots.

Les informations sont

Exemple (suite). Si les mots « tomate » et « rouge » sont la signification des concepts, alors où est l'information ? l'information est contenue dans le cerveau sous la forme de certains états de ses neurones. Il est également contenu dans le texte imprimé composé de ces mots, et lors du codage de lettres avec un code binaire à trois bits, sa quantité est de 120 bits. Si vous prononcez les mots à voix haute, vous obtiendrez beaucoup plus d’informations, mais le sens restera le même. L'image visuelle contient la plus grande quantité d'informations. Cela se reflète même dans le folklore : « il vaut mieux voir une fois que d'entendre cent fois. » Les informations ainsi restituées sont appelées informations sémantiques, car elles codent la signification de certaines informations primaires (sémantique). Ayant entendu (ou vu) une phrase prononcée (ou écrite) dans une langue qu'une personne ne connaît pas, elle reçoit des informations, mais ne peut en déterminer le sens. Par conséquent, pour transmettre le contenu sémantique de l'information, certains accords entre la source et le récepteur sur le contenu sémantique des signaux sont nécessaires, c'est-à-dire mots Tel les accords peut être atteint grâce à la communication. La communication est l'une des conditions les plus importantes pour l'existence de la société humaine.

Dans le monde moderne, l’information est l’une des ressources les plus importantes et, en même temps, l’un des moteurs du développement de la société humaine. Les processus d'information se produisant dans le monde matériel, dans la nature vivante et dans la société humaine sont étudiés (ou du moins pris en compte) par toutes les disciplines scientifiques, de la philosophie au marketing. La complexité croissante des problèmes de recherche scientifique a conduit à la nécessité d'attirer de grandes équipes de scientifiques de différentes spécialités pour les résoudre. Par conséquent, presque toutes les théories discutées ci-dessous sont interdisciplinaires. Historiquement, deux branches complexes de la science – la cybernétique et l’informatique – se consacrent à l’étude de l’information elle-même.

La cybernétique moderne est une discipline multidisciplinaire industrie science qui étudie des systèmes très complexes, tels que :

Société humaine (cybernétique sociale) ;

Économie (cybernétique économique);

Organisme vivant (cybernétique biologique);

Le cerveau humain et sa fonction est la conscience (intelligence artificielle).

L'informatique, formée comme science au milieu du siècle dernier, s'est séparée de la cybernétique et est engagée dans des recherches dans le domaine des méthodes d'obtention, de stockage, de transmission et de traitement de l'information sémantique. Ces deux industrie utiliser plusieurs théories scientifiques sous-jacentes. Ceux-ci incluent la théorie de l'information et ses sections - théorie du codage, théorie des algorithmes et théorie des automates. La recherche sur le contenu sémantique de l'information repose sur un ensemble de théories scientifiques sous le nom général de sémiotique. La théorie de l'information est une théorie complexe, principalement mathématique, qui comprend une description et une évaluation des méthodes de récupération, de transmission, de stockage et de classification de l'information. Considére les médias d'information comme des éléments d'un ensemble abstrait (mathématique) et les interactions entre médias comme un moyen d'organiser les éléments dans cet ensemble. Cette approche permet de décrire formellement le code de l'information, c'est-à-dire de définir un code abstrait et de l'étudier à l'aide de méthodes mathématiques. Pour ces études, il utilise des méthodes de théorie des probabilités, de statistiques mathématiques, d'algèbre linéaire, de théorie des jeux et d'autres théories mathématiques.

Les bases de cette théorie ont été posées par le scientifique américain E. Hartley en 1928, qui a déterminé la mesure de la quantité d'informations pour certains problèmes de communication. Plus tard, la théorie a été considérablement développée par le scientifique américain K. Shannon, les scientifiques russes A.N. Kolmogorov, V.M. Glushkov et d'autres. La théorie de l'information moderne comprend des sections telles que la théorie du codage, la théorie des algorithmes, la théorie des automates numériques (voir ci-dessous) et quelques autres. Il existe également des théories alternatives de l'information, par exemple la « Théorie de l'information qualitative », proposée par l'Institut polonais scientifique M. Mazur. Tout le monde connaît le concept d'algorithme, sans même le savoir. Voici un exemple d'algorithme informel : « Coupez les tomates en cercles ou en tranches. Placez-y l'oignon haché, versez l'huile végétale, puis saupoudrez de poivron finement haché et remuez. Avant de manger, saupoudrez de sel, placez dans un saladier et décorez de persil. (Salade de tomates).

Les premières règles permettant de résoudre des problèmes arithmétiques dans l'histoire de l'humanité ont été développées par l'un des célèbres scientifiques de l'Antiquité, Al-Khorezmi, au 9ème siècle après JC. En son honneur, les règles formalisées pour atteindre n'importe quel objectif sont appelées algorithmes. Le sujet de la théorie des algorithmes est de trouver des méthodes pour construire et évaluer des algorithmes de calcul et de contrôle efficaces (y compris universels) pour le traitement de l'information. Pour justifier de telles méthodes, la théorie des algorithmes utilise l'appareil mathématique théorie de l'information... Le concept scientifique moderne des algorithmes en tant que méthodes de traitement de l'information a été introduit dans les travaux de E. Post et A. Turing dans les années 20 du XXe siècle (Turing Machine). Les scientifiques russes A. Markov (algorithme normal de Markov) et A. Kolmogorov ont apporté une grande contribution au développement de la théorie des algorithmes. La théorie des automates est une branche de la cybernétique théorique qui étudie les modèles mathématiques de dispositifs réellement existants ou fondamentalement possibles qui traitent des informations discrètes. à des moments discrets dans le temps.

Le concept d’automate est né de la théorie des algorithmes. S’il existe des algorithmes universels pour résoudre des problèmes informatiques, il doit également exister des dispositifs (bien qu’abstraits) permettant de mettre en œuvre de tels algorithmes. En fait, une machine de Turing abstraite, considérée dans la théorie des algorithmes, est en même temps un automate défini de manière informelle. La justification théorique de la construction de tels dispositifs fait l'objet de la théorie des automates. La théorie des automates utilise l'appareil des théories mathématiques - algèbre, logique mathématique, analyse combinatoire, théorie des graphes, théorie des probabilités, etc. La théorie des automates, ainsi que la théorie des algorithmes , est la principale base théorique pour la création d'ordinateurs électroniques et de systèmes de contrôle automatisés. La sémiotique est un complexe de théories scientifiques qui étudient les propriétés des systèmes de signes. Les résultats les plus significatifs ont été obtenus dans le domaine de la sémiotique : la sémantique. Le sujet de la recherche sémantique est le contenu sémantique de l'information.

Un système de signes est considéré comme un système d'objets concrets ou abstraits (signes, mots), à chacun desquels une certaine signification est associée d'une certaine manière. En théorie, il a été prouvé qu’il peut y avoir deux comparaisons de ce type. Le premier type de correspondance détermine directement l'objet matériel que ce mot désigne et est appelé dénotation (ou, dans certains ouvrages, prête-nom). Le deuxième type de correspondance détermine la signification d'un signe (mot) et s'appelle un concept. Dans le même temps, des propriétés de comparaison telles que le « sens », la « vérité », la « définissabilité », le « suivi », « l'interprétation », etc. sont étudiées. Pour la recherche, les appareils de logique mathématique et de linguistique mathématique sont utilisés. de la sémantique, esquissée par G. V. Leibniz et F de Saussure au XIXe siècle, formulée et développée par C. Pierce (1839-1914), C. Morris (né en 1901), R. Carnap (1891-1970), etc. La principale réalisation de la théorie est la création d'un appareil d'analyse sémantique qui permet de représenter le sens d'un texte dans une langue naturelle sous la forme d'un enregistrement dans un langage sémantique (sémantique) formalisé. L'analyse sémantique est la base de la création de dispositifs (programmes) pour la traduction automatique d’une langue naturelle à une autre.

Les informations sont stockées en les transférant sur certains supports physiques. Les informations sémantiques enregistrées sur un support de stockage tangible sont appelées un document. L’humanité a appris à stocker des informations il y a très longtemps. Les formes les plus anciennes de stockage d'informations utilisaient la disposition d'objets - coquillages et pierres sur le sable, nœuds sur une corde. Un développement important de ces méthodes a été l’écriture – la représentation graphique de symboles sur la pierre, l’argile, le papyrus et le papier. Une grande importance dans le développement de cette direction était invention impression de livres. Au cours de son histoire, l’humanité a accumulé une énorme quantité d’informations dans les bibliothèques, les archives, les périodiques et autres documents écrits.

Actuellement, le stockage d'informations sous forme de séquences de caractères binaires a acquis une importance particulière. Pour mettre en œuvre ces méthodes, divers périphériques de stockage sont utilisés. Ils constituent le maillon central des systèmes de stockage d’informations. En plus d'eux, ces systèmes utilisent des outils de recherche d'informations ( système de recherche), les moyens d'obtention d'informations (systèmes d'information et de référence) et les moyens d'affichage d'informations (dispositif de sortie). Constitués en fonction de la finalité de l'information, ces systèmes d'information constituent des bases de données, des banques de données et une base de connaissances.

Le transfert d'informations sémantiques est le processus de son transfert spatial de la source au destinataire (destinataire). L'homme a appris à transmettre et à recevoir des informations avant même de les stocker. La parole est un mode de transmission que nos lointains ancêtres utilisaient par contact direct (conversation) - nous l'utilisons encore aujourd'hui. Pour transmettre des informations sur de longues distances, il est nécessaire d'utiliser des processus d'information beaucoup plus complexes. Pour mener à bien un tel processus, les informations doivent être formatées (présentées) d'une manière ou d'une autre. Pour présenter l'information, divers systèmes de signes sont utilisés : des ensembles de symboles sémantiques prédéterminés : objets, images, mots écrits ou imprimés en langage naturel. Les informations sémantiques sur tout objet, phénomène ou processus présenté avec leur aide sont appelées un message.

Évidemment, pour transmettre un message à distance, les informations doivent être transférées vers une sorte de support mobile. Les transporteurs peuvent se déplacer dans l'espace en utilisant Véhicule, comme c'est le cas pour les lettres envoyées par courrier. Cette méthode garantit une fiabilité totale de la transmission de l'information, puisque le destinataire reçoit le message original, mais nécessite un temps de transmission important. Depuis le milieu du XIXe siècle, les méthodes de transmission d'informations utilisant un support d'information à propagation naturelle : les vibrations électromagnétiques (vibrations électriques, ondes radio, lumière) se sont généralisées. La mise en œuvre de ces méthodes nécessite :

Transfert préliminaire des informations contenues dans un message vers un support - encodage ;

Assurer la transmission du signal ainsi reçu au destinataire via un canal de communication spécial ;

Conversion inverse du code de signal en code de message - décodage.

Les informations sont

L'utilisation de supports électromagnétiques rend la transmission d'un message au destinataire quasi instantanée, mais nécessite des mesures supplémentaires pour garantir la qualité (fiabilité et exactitude) des informations transmises, car les véritables canaux de communication sont soumis à des interférences naturelles et artificielles. Les appareils qui mettent en œuvre le processus de transfert de données forment des systèmes de communication. Selon la méthode de présentation de l'information, les systèmes de communication peuvent être divisés en systèmes de signalisation (, télécopie), sonore (), vidéo et combinés (télévision). Le système de communication le plus développé à notre époque est Internet.

Traitement de l'information

L’information n’étant pas matérielle, son traitement implique diverses transformations. Les processus de traitement incluent tout transfert d'informations d'un support vers un autre support. Les informations destinées au traitement sont appelées données. Le principal type de traitement des informations primaires reçues par divers appareils est la transformation sous une forme qui assure sa perception par les sens humains. Ainsi, les photographies de l'espace obtenues aux rayons X sont converties en photographies couleur ordinaires à l'aide de convertisseurs de spectre et de matériel photographique spéciaux. Les appareils de vision nocturne convertissent l'image obtenue dans les rayons infrarouges (thermiques) en une image dans le domaine visible. Pour certaines tâches de communication et de contrôle, la conversion des informations analogiques est nécessaire. À cette fin, des convertisseurs de signaux analogique-numérique et numérique-analogique sont utilisés.

Le type de traitement le plus important de l'information sémantique consiste à déterminer la signification (le contenu) contenu dans un certain message. Contrairement à l'information sémantique primaire, elle n'a pas statistique caractéristiques, c'est-à-dire une mesure quantitative - soit il y a un sens, soit il n'y en a pas. Et combien cela coûte, le cas échéant, est impossible à établir. Le sens contenu dans le message est décrit dans un langage artificiel qui reflète les liens sémantiques entre les mots du texte source. Un dictionnaire d'une telle langue, appelé thésaurus, se trouve dans le récepteur du message. La signification des mots et des expressions dans un message est déterminée en les attribuant à certains groupes de mots ou d'expressions dont la signification a déjà été établie. Le thésaurus permet ainsi d'établir le sens du message et, en même temps, se réapprovisionne en nouveaux concepts sémantiques. Le type de traitement de l'information décrit est utilisé dans les systèmes de recherche d'informations et les systèmes de traduction automatique.

L'un des types de traitement de l'information les plus répandus est la solution de problèmes de calcul et de problèmes de contrôle automatique à l'aide d'ordinateurs. Le traitement des informations est toujours effectué dans un but précis. Pour y parvenir, il faut connaître l’ordre des actions sur l’information menant à un objectif donné. Cette procédure s'appelle un algorithme. En plus de l'algorithme lui-même, vous avez également besoin d'un appareil qui implémente cet algorithme. Dans les théories scientifiques, un tel dispositif est appelé automate.Il convient de noter que la caractéristique la plus importante de l'information est le fait qu'en raison de l'asymétrie de l'interaction de l'information, de nouvelles informations apparaissent lors du traitement de l'information, mais les informations d'origine ne sont pas perdues.

Informations analogiques et numériques

Le son est constitué de vibrations ondulatoires dans n'importe quel milieu, par exemple dans l'air. Lorsqu'une personne parle, les vibrations des ligaments de la gorge sont converties en vibrations ondulatoires de l'air. Si nous considérons le son non pas comme une onde, mais comme des vibrations en un point donné, alors ces vibrations peuvent être représentées comme une pression atmosphérique changeant au fil du temps. À l'aide d'un microphone, les changements de pression peuvent être détectés et convertis en tension électrique. La pression atmosphérique est convertie en fluctuations de tension électrique.

Une telle transformation peut se produire selon diverses lois, le plus souvent la transformation se produit selon une loi linéaire. Par exemple, comme ceci :

U(t)=K(P(t)-P_0),

où U(t) est la tension électrique, P(t) est la pression atmosphérique, P_0 est la pression atmosphérique moyenne et K est le facteur de conversion.

La tension électrique et la pression atmosphérique sont des fonctions continues dans le temps. Les fonctions U(t) et P(t) renseignent sur les vibrations des ligaments de la gorge. Ces fonctions sont continues et ces informations sont appelées analogiques. La musique est un cas particulier du son et elle peut également être représentée comme une sorte de fonction du temps. Ce sera une représentation analogique de la musique. Mais la musique s’écrit aussi sous forme de notes. Chaque note a une durée qui est un multiple d'une durée prédéterminée et une hauteur (do, re, mi, fa, salt, etc.). Si ces données sont converties en chiffres, nous obtenons une représentation numérique de la musique.

La parole humaine est également un cas particulier de son. Il peut également être représenté sous forme analogique. Mais tout comme la musique peut être décomposée en notes, la parole peut être décomposée en lettres. Si chaque lettre reçoit son propre ensemble de chiffres, nous obtiendrons alors une représentation numérique de la parole. La différence entre les informations analogiques et numériques est que les informations analogiques sont continues, tandis que les informations numériques sont discrètes. La transformation de l'information d'un type à un autre , selon le type de transformation, est appelé différemment : simplement « conversion », comme la conversion numérique-analogique, ou la conversion analogique-numérique ; les transformations complexes sont appelées « codage », par exemple codage delta, codage entropique ; La conversion entre des caractéristiques telles que l'amplitude, la fréquence ou la phase est appelée « modulation », par exemple modulation amplitude-fréquence, modulation de largeur d'impulsion.

Les informations sont

En règle générale, les conversions analogiques sont assez simples et peuvent être facilement gérées par divers appareils inventés par l'homme. Un magnétophone convertit la magnétisation d'un film en son, un enregistreur vocal convertit le son en magnétisation d'un film, une caméra vidéo convertit la lumière en magnétisation d'un film, un oscilloscope convertit la tension ou le courant électrique en une image, etc. La conversion d'informations analogiques en informations numériques est beaucoup plus difficile. La machine ne peut pas effectuer certaines transformations ou y parvient avec beaucoup de difficulté. Par exemple, convertir une parole en texte, ou convertir un enregistrement d'un concert en partition, et même une représentation intrinsèquement numérique : un texte sur papier est très difficile à convertir pour une machine en le même texte dans la mémoire d'un ordinateur.

Les informations sont

Pourquoi alors utiliser la représentation numérique de l’information si elle est si complexe ? Le principal avantage des informations numériques par rapport aux informations analogiques est l’immunité au bruit. Autrement dit, lors du processus de copie d'informations, les informations numériques sont copiées telles quelles, elles peuvent être copiées presque un nombre infini de fois, tandis que les informations analogiques deviennent bruyantes pendant le processus de copie et leur qualité se détériore. En règle générale, les informations analogiques ne peuvent être copiées que trois fois. Si vous disposez d'un enregistreur audio à deux cassettes, vous pouvez réaliser l'expérience suivante : essayez de réécrire la même chanson plusieurs fois de cassette en cassette ; après seulement quelques réenregistrements de ce type vous remarquerez à quel point la qualité de l'enregistrement s'est détériorée. Les informations sur la cassette sont stockées sous forme analogique. Vous pouvez réécrire de la musique au format mp3 autant de fois que vous le souhaitez et la qualité de la musique ne se détériore pas. Les informations contenues dans un fichier mp3 sont stockées numériquement.

Quantité d'informations

Une personne ou un autre destinataire d'informations, ayant reçu une information, résout une certaine incertitude. Prenons le même arbre comme exemple. Lorsque nous avons vu l’arbre, nous avons résolu un certain nombre d’incertitudes. Nous apprenions la hauteur de l'arbre, le type d'arbre, la densité du feuillage, la couleur des feuilles et, s'il s'agissait d'un arbre fruitier, alors nous voyions les fruits dessus, leur maturité, etc. Avant de regarder l'arbre, nous ne savions pas tout cela, après avoir regardé l'arbre, nous avons résolu l'incertitude - nous avons reçu des informations.

Si nous allons dans un pré et l’observons, nous obtiendrons un autre type d’informations : quelle est la taille du pré, quelle est la hauteur de l’herbe et quelle est sa couleur. Si un biologiste se rend dans cette même prairie, il pourra alors, entre autres choses, découvrir : quelles variétés d'herbe poussent dans la prairie, de quel type de prairie il s'agit, il verra quelles fleurs ont fleuri, lesquelles sont sur le point de fleurir, si la prairie est propice au pâturage des vaches, etc. Autrement dit, il recevra plus d'informations que nous, puisqu'il avait plus de questions avant de regarder la prairie, le biologiste résoudra plus d'incertitudes.

Les informations sont

Plus l'incertitude était résolue lors du processus d'obtention d'informations, plus nous recevions d'informations. Mais il s’agit d’une mesure subjective de la quantité d’informations, et nous aimerions avoir une mesure objective. Il existe une formule pour calculer la quantité d'informations. Nous avons une certaine incertitude, et nous avons N nombre de cas de résolution de l'incertitude, et chaque cas a une certaine probabilité de résolution, alors la quantité d'informations reçues peut être calculée en utilisant la formule suivante que Shannon nous a suggérée :

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), où

I - quantité d'informations ;

N - nombre de résultats ;

p_1, p_2,..., p_N sont les probabilités du résultat.

Les informations sont

La quantité d'informations est mesurée en bits - une abréviation des mots anglais BInary digiT, qui signifie chiffre binaire.

Pour des événements également probables, la formule peut être simplifiée :

I = log_(2)N, où

I - quantité d'informations ;

N est le nombre de résultats.

Prenons, par exemple, une pièce de monnaie et jetons-la sur la table. Il atterrira sur pile ou sur face. Nous avons 2 événements également probables. Après avoir lancé la pièce, nous avons reçu log_(2)2=1 bit d'information.

Essayons de découvrir la quantité d'informations que nous obtenons après avoir lancé les dés. Le cube a six faces – six événements équiprobables. On obtient : log_(2)6 environ 2,6. Après avoir jeté le dé sur la table, nous avons reçu environ 2,6 bits d’informations.

Les chances que nous apercevions un dinosaure martien lorsque nous quittons la maison sont d’une sur dix milliards. Quelle quantité d’informations obtiendrons-nous sur le dinosaure martien une fois que nous quitterons la maison ?

Gauche(((1 sur (10^(10))) log_2(1 sur (10^(10))) + gauche(( 1 - (1 sur (10^(10)))) droite) log_2 gauche(( 1 - (1 sur (10^(10))) droit)) droit) environ 3,4 cdot 10^(-9) bits.

Disons que nous avons lancé 8 pièces. Nous avons 2 ^ 8 options de dépôt de pièces. Cela signifie qu'après avoir lancé des pièces, nous obtiendrons log_2(2^8)=8 bits d'information.

Lorsque nous posons une question et que nous sommes également susceptibles de recevoir une réponse « oui » ou « non », alors après avoir répondu à la question, nous recevons une information.

Il est étonnant que si nous appliquons la formule de Shannon à des informations analogiques, nous obtenions une quantité infinie d'informations. Par exemple, la tension en un point d’un circuit électrique peut prendre une valeur également probable de zéro à un volt. Le nombre de résultats que nous avons est égal à l'infini, et en substituant cette valeur dans la formule pour des événements également probables, nous obtenons l'infini - une quantité infinie d'informations.

Je vais maintenant vous montrer comment coder « guerre et paix » en utilisant une seule marque sur n'importe quelle tige métallique. Encodons toutes les lettres et caractères trouvés dans " guerre et la paix», en utilisant des nombres à deux chiffres - ils devraient nous suffire. Par exemple, nous donnerons à la lettre « A » le code « 00 », à la lettre « B » le code « 01 » et ainsi de suite, nous encoderons les signes de ponctuation, les lettres latines et les chiffres. Recodons" guerre et le monde" en utilisant ce code et obtenez un numéro long, par exemple 70123856383901874..., ajoutez une virgule et un zéro devant ce numéro (0.70123856383901874...). Le résultat est un nombre de zéro à un. Mettons risque sur une tige métallique de sorte que le rapport du côté gauche de la tige à la longueur de cette tige soit égal exactement à notre nombre. Ainsi, si du coup on veut lire « guerre et paix », on mesurera simplement le côté gauche de la tige pour des risques et la longueur de la tige entière, divisez un nombre par un autre, obtenez un nombre et recodez-le en lettres (« 00 » en « A », « 01 » en « B », etc.).

Les informations sont

En réalité, nous ne pourrons pas le faire, puisque nous ne pourrons pas déterminer les longueurs avec une précision infinie. Certains problèmes d'ingénierie nous empêchent d'augmenter la précision des mesures, et la physique quantique nous montre qu'au-delà d'une certaine limite, les lois quantiques vont déjà interférer avec nous. Intuitivement, nous comprenons que plus la précision des mesures est faible, moins nous recevons d’informations, et plus la précision des mesures est grande, plus nous recevons d’informations. La formule de Shannon ne convient pas pour mesurer la quantité d'informations analogiques, mais il existe d'autres méthodes pour cela, qui sont discutées dans la théorie de l'information. En technologie informatique, un bit correspond à l'état physique du support d'information : magnétisé - non magnétisé, il y a un trou - pas de trou, chargé - non chargé, réfléchit la lumière - ne réfléchit pas la lumière, potentiel électrique élevé - faible potentiel électrique. Dans ce cas, un état est généralement désigné par le chiffre 0 et l'autre par le chiffre 1. Toute information peut être codée avec une séquence de bits : texte, image, son, etc.

Avec un bit, une valeur appelée octet est souvent utilisée, elle est généralement égale à 8 bits. Et si un bit vous permet de choisir une option également probable parmi deux options possibles, alors un octet vaut 1 sur 256 (2 ^ 8). Pour mesurer la quantité d’informations, il est également courant d’utiliser des unités plus grandes :

1 Ko (un kilo-octet) 210 octets = 1 024 octets

1 Mo (un mégaoctet) 210 Ko = 1 024 Ko

1 Go (un gigaoctet) 210 Mo = 1 024 Mo

En réalité, les préfixes SI kilo-, méga-, giga- devraient être utilisés respectivement pour les facteurs 10^3, 10^6 et 10^9, mais historiquement, il existe une pratique consistant à utiliser des facteurs avec des puissances de deux.

Un bit de Shannon et un bit utilisé en informatique sont identiques si les probabilités qu'un zéro ou un un apparaisse dans un bit informatique sont égales. Si les probabilités ne sont pas égales, alors la quantité d'informations selon Shannon devient moindre, nous l'avons vu dans l'exemple du dinosaure martien. La quantité d’informations informatiques fournit une estimation supérieure de la quantité d’informations. La mémoire volatile, une fois mise sous tension, est généralement initialisée avec une certaine valeur, par exemple, uniquement des uns ou uniquement des zéros. Il est clair qu'une fois la mémoire mise sous tension, il n'y a aucune information, puisque les valeurs dans les cellules mémoire sont strictement définies, il n'y a aucune incertitude. La mémoire peut stocker une certaine quantité d’informations, mais une fois mise sous tension, elle ne contient aucune information.

La désinformation est une information délibérément fausse fournie à un ennemi ou à un partenaire commercial pour une conduite plus efficace des opérations militaires, une coopération, une vérification des fuites d'informations et de la direction de ces fuites, l'identification de clients potentiels du marché noir. La désinformation (également mal informée) est également un processus. de manipuler l'information elle-même, comme par exemple : induire quelqu'un en erreur en fournissant des informations incomplètes ou complètes mais qui ne sont plus nécessaires, déformer le contexte, déformer une partie de l'information.

Le but d'une telle influence est toujours le même : l'adversaire doit agir selon les besoins du manipulateur. L'action de la cible contre laquelle est dirigée la désinformation peut consister à prendre une décision dont le manipulateur a besoin ou à refuser de prendre une décision qui lui est défavorable. Mais dans tous les cas, le but final est l’action qui sera entreprise par l’adversaire.

La désinformation est donc produit l'activité humaine, une tentative de créer une fausse impression et, par conséquent, de pousser aux actions et/ou à l'inaction souhaitées.

Les informations sont

Types de désinformation :

Induire en erreur une personne ou un groupe de personnes spécifique (y compris une nation entière) ;

Manipulation (les actions d'une personne ou d'un groupe de personnes) ;

Créer l'opinion publique concernant un problème ou un objet.

Les informations sont

La fausse déclaration n’est rien d’autre qu’une pure tromperie, la fourniture de fausses informations. La manipulation est une méthode d’influence visant directement à changer la direction de l’activité des personnes. Souligner prochains niveaux manipulation:

Renforcer les valeurs (idées, attitudes) qui existent dans l’esprit des gens et qui sont bénéfiques au manipulateur ;

Changement partiel de point de vue sur un événement ou une circonstance particulière ;

Un changement radical dans les attitudes de vie.

Créer l'opinion publique est la formation dans la société d'une certaine attitude envers un problème choisi.

Sources et liens

ru.wikipedia.org - encyclopédie gratuite Wikipédia

youtube.com - Hébergement de vidéos YouTube

images.yandex.ua - Images Yandex

google.com.ua - Google images

ru.wikibooks.org - Wikilivres

inf1.info - Planète Informatique

old.russ.ru - Magazine russe

shkolo.ru - Répertoire d'informations

5byte.ru - Site Web d'informatique

ssti.ru - Technologies de l'information

klgtu.ru - Informatique

informatika.sch880.ru - site Web du professeur d'informatique O.V. Podvintseva

Encyclopédie des études culturelles

Le concept de base de la cybernétique, de la même manière, économique I. le concept de base de la cybernétique économique. Il existe de nombreuses définitions de ce terme, elles sont complexes et contradictoires. La raison en est évidemment que I. s'occupe du phénomène... ... Dictionnaire économique et mathématique

information- Des données significatives. [GOST R ISO 9000 2008] informations Tout type de connaissances sur des objets, des faits, des concepts, etc. d'un domaine problématique qui est échangé par les utilisateurs d'un système d'information [GOST 34.320 96] informations Informations (messages, données) ... . .. Guide du traducteur technique

information- et, f. informations f., étage informacyia, lat. explication des informations, présentation. Message, information sur quelque chose. BAS 1. Partout et en tout, protégez les intérêts des monarques en toute fidélité, .. pour tout je lui donne des informations directes aux Shvymers... ... Dictionnaire historique des gallicismes de la langue russe

information- données, données sources, informations ; notification, message, notification, avis ; classement, catamnèse, actualités, référence, matériel, rapport, communiqué de presse Dictionnaire des synonymes russes. informations voir informations Dictionnaire des synonymes de la langue russe... ... Dictionnaire de synonymes

INFORMATION- (information) Données disponibles pour les individus, les entreprises ou les gouvernements lors de la prise de décisions économiques. En principe, il existe une quantité infinie d’informations ; dans la pratique, même des organisations aussi grandes et sophistiquées que la centrale... ... Dictionnaire économique

- (données) Informations traitées, accumulées ou émises par un ordinateur. Entreprise. Dictionnaire. M. : INFRA M, Maison d'édition Ves Mir. Graham Betts, Barry Brindley, S. Williams et autres. Rédacteur général : Ph.D. Osadchaya I.M.. 1998. Informations... Dictionnaire des termes commerciaux

INFORMATION- INFORMATION, informations, femmes. (livre, officiel). 1. unités uniquement Action en vertu du ch. informer. Les informations sont présentées au bon niveau. 2. Un message informant sur la situation ou les activités de quelqu’un, des informations sur quelque chose. Donner... ... Dictionnaire explicatif d'Ouchakov

INFORMATION- (du latin informatio familiarisation, explication) un concept utilisé en philosophie depuis l'Antiquité et qui a récemment reçu un sens nouveau et plus large grâce au développement de la cybernétique, où il constitue l'une des catégories centrales... ... Encyclopédie philosophique

INFORMATION- (de lat. informatio explication, sensibilisation) toute information et donnée reflétant les propriétés des objets dans les domaines naturel (biologique, physique, etc.), social et technique. systèmes et transmis par des moyens sonores, graphiques (y compris écrits) ou autres sans... ... Encyclopédie physique, L'ouvrage fait partie d'un ensemble de manuels pour le cours d'informatique et de technologies de l'information et de la communication (TIC) au lycée au niveau profil, basé sur... , Information et progrès...