Comment les informations peuvent être codées. Codage des informations. Codage des informations dans le PC. Encodage des informations textuelles

Département de l'éducation de la ville de Moscou


Établissement d'enseignement public

Enseignement secondaire professionnel

Collège d'architecture et de construction n°7 TSP-2

Signaler

Sur le sujet : « Informatique et TIC »

sur le thème : "Systèmes de nombres ».

Complété par : étudiant du groupe 11EVM

Nom complet : Vus Ivan Valerievich

vérifié:

Professeur Ovsyannikova A.S.

Moscou - 2011

Représentation de données dans la mémoire d'un ordinateur personnel (chiffres, symboles, graphiques, sons).

Forme et langue de présentation des informations

Percevant des informations à l'aide des sens, une personne cherche à les corriger afin qu'elles deviennent compréhensibles pour les autres, en les présentant sous une forme ou une autre.

Le compositeur peut jouer un thème musical au piano, puis l'écrire à l'aide de notes. Des images inspirées d'une même mélodie peuvent être incarnées par un poète sous la forme d'un poème, un chorégraphe peut l'exprimer dans une danse, et un artiste dans une peinture.

Une personne exprime ses pensées sous forme de phrases composées de mots. Les mots, à leur tour, sont constitués de lettres. Il s'agit d'une représentation alphabétique des informations.

La forme de présentation d'une même information peut être différente. Cela dépend de l'objectif que vous vous êtes fixé. Vous rencontrez des opérations similaires dans les cours de mathématiques et de physique lorsque vous présentez une solution sous différentes formes. Par exemple, la solution au problème : « Trouver la valeur d'une expression mathématique… » peut être présentée sous forme de tableau ou de graphique en utilisant des moyens visuels de présentation d'informations : des nombres, un tableau, une image.

Ainsi, les informations peuvent être présentées sous différentes formes :

  • l'écriture des signes, constituée de divers signes, parmi lesquels il est d'usage de distinguer
    • symbolique sous forme de texte, de nombres, caractères spéciaux(par exemple, le texte d'un manuel);
    • graphique (par exemple, une carte géographique);
    • tabulaire (par exemple, un tableau pour enregistrer le déroulement d'une expérience physique);
  • sous forme de gestes ou de signaux (par exemple, les signaux d'un contrôleur de la circulation) ;
  • oral verbal (par exemple, conversation).

La forme de présentation de l'information est très importante lors de sa transmission : si une personne a une mauvaise audition, alors il est impossible de lui transmettre l'information sous forme sonore ; si le chien a un odorat peu développé, il ne peut pas travailler dans le service de recherche. À différents moments, les gens ont transmis des informations sous diverses formes en utilisant : la parole, la fumée, le tambour, les cloches, l'écriture, le télégraphe, la radio, le téléphone, le fax.

Quelle que soit la forme de présentation et le mode de transmission de l'information, celle-ci est toujours transmise à l'aide d'une langue.

Dans les cours de mathématiques, vous utilisez un langage spécial basé sur des nombres, des signes opérations arithmétiques et les relations. Ils constituent l'alphabet du langage mathématique.

En cours de physique, lorsque l'on considère un phénomène physique, on utilise la caractéristique de cette langue caractères spéciaux à partir desquels vous faites des formules. La formule est un mot dans le langage de la physique.

Dans les cours de chimie, vous utilisez également certains symboles, signes, en les combinant dans les "mots" d'une langue donnée.

Il y a la langue des sourds-muets, où les symboles de la langue sont certains signes exprimés par les expressions faciales et les mouvements des mains.

La base de toute langue est l'alphabet - un ensemble de caractères définis de manière unique (symboles) à partir desquels un message est formé.

Les langues sont divisées en langues naturelles (parlées) et formelles. L'alphabet de la langue naturelle dépend des traditions nationales. Les langages formels se retrouvent dans des domaines particuliers de l'activité humaine (mathématiques, physique, chimie, etc.). Il existe environ 10 000 langues, dialectes et adverbes différents dans le monde. De nombreuses langues parlées descendent de la même langue. Par exemple, le français, l'espagnol, l'italien et d'autres langues ont été formés à partir du latin.

Codage des informations

Avec l'avènement du langage, puis des systèmes de signes, les possibilités de communication entre les personnes se sont élargies. Cela a permis de stocker les idées, les connaissances acquises et toutes les données, de les transmettre de diverses manières à distance et à d'autres moments - non seulement à leurs contemporains, mais aussi aux générations futures. Les créations des ancêtres ont survécu jusqu'à ce jour, qui, à l'aide de divers symboles, se sont immortalisés eux-mêmes et leurs actes dans des monuments et des inscriptions. Les peintures rupestres (pétroglyphes) restent un mystère pour les scientifiques. Peut-être, de cette façon, les peuples anciens voulaient-ils entrer en contact avec nous, futurs habitants de la planète, et rapporter les événements de leur vie.

Chaque nation a sa propre langue, composée d'un ensemble de caractères (lettres) : russe, anglais, japonais et bien d'autres. Vous vous êtes déjà familiarisé avec le langage des mathématiques, de la physique, de la chimie.

La représentation d'informations à l'aide d'un langage est souvent appelée codage.

Code- un ensemble de symboles (symboles) pour représenter des informations. Codage- le processus de présentation de l'information sous forme de code.

Le conducteur émet un signal avec un bip ou des phares clignotants. Le code est la présence ou l'absence d'un bip, et dans le cas d'une signalisation lumineuse, le clignotement des phares ou son absence.

Vous êtes confronté au codage des informations lors de la traversée de la route en fonction des feux de circulation. Le code détermine les couleurs du feu de circulation - rouge, jaune, vert.

Le langage naturel dans lequel les gens communiquent est également basé sur le code. Ce n'est que dans ce cas qu'on l'appelle l'alphabet. En parlant, ce code est transmis en sons, en écrivant - en lettres. La même information peut être représentée à l'aide de codes différents. Par exemple, un enregistrement d'une conversation peut être enregistré au moyen de lettres russes ou de symboles textuels spéciaux.

Au fur et à mesure que la technologie se développait, différentes façons informations de codage. Dans la seconde moitié du 19e siècle, l'inventeur américain Samuel Morse a inventé un code étonnant qui sert encore aujourd'hui l'humanité. L'information est codée avec trois "lettres": un signal long (tiret), un signal court (point) et aucun signal (pause) pour séparer les lettres. Ainsi, l'encodage se réduit à utiliser un ensemble de caractères disposés dans un ordre strictement défini.

Les gens ont toujours cherché des moyens d'échanger rapidement des messages. Pour cela, des messagers ont été envoyés, des pigeons voyageurs ont été utilisés. Parmi les peuples, il existait différentes manières de signaler un danger imminent : tambours, fumée de feux de joie, drapeaux, etc. Cependant, l'utilisation d'une telle présentation d'informations nécessite un accord préalable sur la compréhension du message reçu.

Le célèbre scientifique allemand Gottfried Wilhelm Leibniz a proposé au 17ème siècle un unique et système simple représentations des nombres. "Le calcul à l'aide de deux... est fondamental pour la science et génère de nouvelles découvertes... en réduisant les nombres aux commencements les plus simples, qui sont 0 et 1, un ordre merveilleux apparaît partout."

Aujourd'hui, cette façon de représenter l'information à l'aide d'un langage ne contenant que deux caractères de l'alphabet - 0 et 1, est largement utilisée dans appareils techniques, y compris dans l'ordinateur. Ces deux caractères 0 et 1 sont généralement appelés chiffres ou bits binaires (de l'anglais bit - Binary Digit - signe binaire).

Les ingénieurs ont été attirés par cette méthode de codage par la simplicité de la mise en œuvre technique - qu'il y ait un signal ou non. Tout message peut être encodé avec ces deux chiffres.

L'unité la plus grande pour mesurer la quantité d'informations est considérée comme 1 octet, qui se compose de 8 bits.

Il est également d'usage d'utiliser des unités plus grandes pour mesurer la quantité d'informations. Le nombre 1024 (2 10) est un multiplicateur lors du passage à une unité de mesure supérieure.

Encodage des informations dans un ordinateur

Toutes les informations traitées par un ordinateur doivent être représentées par un code binaire utilisant deux chiffres - 0 et 1. Ces deux caractères sont généralement appelés chiffres binaires, ou bits. Tout message peut être codé avec deux chiffres 1 et 0. C'est la raison pour laquelle deux processus importants doivent être organisés dans l'ordinateur :

  • le codage, qui est fourni par les dispositifs d'entrée lors de la conversion des informations d'entrée sous une forme perceptible par un ordinateur, c'est-à-dire en un code binaire ;
  • le décodage, qui est fourni par les périphériques de sortie lors de la conversion des données du code binaire en une forme compréhensible par une personne.

Du point de vue de la mise en œuvre technique, l'utilisation du système de nombres binaires pour le codage des informations s'est avérée très
plus facile que d'utiliser d'autres méthodes. En effet, il est commode de coder une information sous forme d'une séquence de zéros et de uns si ces valeurs sont présentées comme deux états stables possibles d'un élément électronique :

  • 0 - aucun signal électrique ou le signal a niveau faible;
  • 1 - la présence d'un signal ou le signal est haut.

Ces conditions sont faciles à distinguer. L'inconvénient de l'encodage binaire est la longueur des codes. Mais en technologie, il est plus facile de traiter avec un grand nombre éléments simples qu'avec un peu compliqué.

Vous et dans la vie de tous les jours devez faire face à un appareil au quotidien qui ne peut être que dans deux états stables : on/off. Bien sûr, il s'agit d'un interrupteur bien connu. Mais il s'est avéré impossible de proposer un commutateur qui pourrait basculer de manière stable et rapide vers l'un des 10 états. En conséquence, après une série de tentatives infructueuses, les développeurs sont arrivés à la conclusion qu'il était impossible de construire un ordinateur basé sur le système de nombres décimaux. Et le système de nombres binaires était la base de la représentation des nombres dans un ordinateur.

Actuellement, il existe différentes manières de coder et de décoder des informations binaires dans un ordinateur. Tout d'abord, cela dépend du type d'information, à savoir ce qu'il faut encoder : texte, nombres, images graphiques ou son. De plus, lors de l'encodage des nombres, un rôle important est joué par la façon dont ils seront utilisés : dans le texte, dans les calculs ou dans le processus d'E/S. Les particularités de la mise en œuvre technique se superposent également.

Encodage des nombres

Système de nombres - un ensemble de techniques et de règles pour écrire des nombres à l'aide d'un ensemble spécifique de caractères.

Pour écrire des chiffres, vous pouvez non seulement utiliser des chiffres, mais également des lettres (par exemple, écrire des chiffres romains - XXI). Le même nombre peut être représenté différemment dans différents systèmes numériques.

Selon la méthode d'affichage des nombres, les systèmes de nombres sont divisés en positionnels et non positionnels.

V système positionnel calcul, la valeur quantitative de chaque chiffre d'un nombre dépend de l'endroit (position ou chiffre) où est écrit l'un ou l'autre chiffre de ce nombre. Par exemple, en changeant la position du chiffre 2 dans le système décimal, vous pouvez écrire des nombres décimaux de différentes tailles, par exemple 2 ; vingt; 2000 ; 0,02, etc...

Dans un système numérique non positionnel, les nombres ne changent pas de valeur quantitative lorsque leur emplacement (position) dans le nombre change. Un exemple de système non positionnel est le système romain, dans lequel, quel que soit l'emplacement, le même symbole a la même signification (par exemple, le symbole X dans XXV).

Le nombre de symboles différents utilisés pour représenter un nombre dans le système de numérotation positionnelle est appelé système de numérotation de base.

Dans l'ordinateur, le plus approprié et le plus fiable était le système de nombres binaires, dans lequel les séquences de nombres 0 et 1 sont utilisées pour représenter des nombres.

De plus, pour travailler avec la mémoire de l'ordinateur, il s'est avéré pratique d'utiliser la représentation des informations à l'aide de deux autres systèmes de numérotation :

  • octal (tout nombre est représenté à l'aide de huit chiffres - 0, 1, 2 ... 7);
  • hexadécimal (caractères-chiffres utilisés - 0, 1, 2 ... 9 et lettres - A, B, C, D, E, F, remplaçant les numéros 10, 11, 12, 13, 14, 15, respectivement).

Codage des informations sur les caractères

Une pression sur une touche alphanumérique du clavier envoie un signal à l'ordinateur sous forme de nombre binaire représentant l'une des valeurs de la table de codes. Une table de codes est la représentation interne des caractères dans un ordinateur. Partout dans le monde, la table ASCII (American Standard Code for Informational Interchange) est acceptée comme standard.

Pour stocker le code binaire d'un caractère, 1 octet = 8 bits est alloué. Étant donné que chaque bit vaut 1 ou 0, le nombre de combinaisons possibles de uns et de zéros est de 2 8 = 256.

Cela signifie qu'avec l'aide de 1 octet, vous pouvez obtenir 256 combinaisons de codes binaires différentes et afficher 256 symboles différents avec leur aide. Ces codes constituent la table ASCII.

Par exemple, lorsque vous appuyez sur la touche avec la lettre S, le code 01010011 est écrit dans la mémoire de l'ordinateur. Lorsque la lettre S est affichée à l'écran, l'ordinateur effectue le décodage - sur la base de ce code binaire, une image du symbole est construit.

SOLEIL - 01010011 010101101 01001110

La norme ASCII encode les 128 premiers caractères de 0 à 127 : chiffres, lettres de l'alphabet latin, caractères de contrôle. Les 32 premiers caractères sont des caractères de contrôle et sont principalement destinés à transmettre des commandes de contrôle. Leur objectif peut varier en fonction du logiciel et du matériel. La seconde moitié de la table des codes (de 128 à 255) n'est pas définie par la norme américaine et est destinée aux symboles des alphabets nationaux, pseudographiques et à certains symboles mathématiques. Différents pays peuvent utiliser différentes versions de la seconde moitié de la table de codes.

Noter! Les nombres sont codés selon la norme ASCII et sont enregistrés dans deux cas - lors de l'entrée-sortie et lorsqu'ils sont rencontrés dans le texte. Si les nombres sont impliqués dans les calculs, ils sont convertis en un autre code binaire.

À titre de comparaison, considérez le nombre 45 pour deux options de codage.

Lorsqu'il est utilisé dans du texte, ce nombre nécessitera 2 octets pour sa représentation, puisque chaque chiffre sera représenté par son propre code conformément à la table ASCII. Dans le système binaire - 00110100 00110101.

Lorsqu'il est utilisé dans les calculs, le code de ce nombre sera obtenu selon des règles de traduction spéciales et représenté sous la forme d'un nombre binaire à 8 bits 00101101, qui nécessitera 1 octet.

L'un des principaux avantages d'un ordinateur est qu'il s'agit d'une machine incroyablement polyvalente. Quiconque l'a déjà rencontré sait que faire des calculs arithmétiques n'est pas du tout la principale méthode d'utilisation d'un ordinateur. Les ordinateurs reproduisent parfaitement la musique et les films vidéo, avec leur aide, il est possible d'organiser des conférences vocales et vidéo sur Internet, de créer et de traiter des images graphiques, et la possibilité d'utiliser un ordinateur dans le domaine des jeux informatiques à première vue semble totalement incompatible avec l'image d'un superarythmomètre, qui broie des centaines de millions de chiffres par seconde.

Lors de la composition d'un modèle d'information d'un objet ou d'un phénomène, nous devons nous mettre d'accord sur la façon de comprendre certaines désignations. C'est-à-dire se mettre d'accord sur le type de présentation de l'information.

Une personne exprime ses pensées sous forme de phrases composées de mots. Ils sont une représentation alphabétique des informations. La base de toute langue est un alphabet - un ensemble fini de divers signes (symboles) de toute nature, à partir desquels un message est composé.

Une seule et même entrée peut avoir des significations différentes. Par exemple, un ensemble de nombres 251299 peut signifier : la masse d'un objet ; la longueur de l'objet ; distance entre les objets; numéro de téléphone; date d'enregistrement le 25 décembre 1999.

Pour représenter des informations, différents codes peuvent être utilisés et, par conséquent, vous devez connaître certaines règles - les lois de l'écriture de ces codes, c'est-à-dire être capable de coder.

Code - un ensemble de symboles pour la présentation des informations.

Codage - le processus de présentation de l'information sous forme de code.

Pour communiquer les uns avec les autres, nous utilisons un code - le russe. En parlant, ce code est transmis en sons, en écrivant - en lettres. Le conducteur émet un signal avec un bip ou des phares clignotants. Vous êtes confronté au codage d'informations lors de la traversée de la route sous forme de feux de circulation. Ainsi, l'encodage se réduit à l'utilisation d'une collection de caractères selon des règles strictement définies.

L'information peut être encodée de diverses manières : oralement ; en cours d'écriture; gestes ou signaux de toute autre nature.

Codage binaire des données.

Au fur et à mesure que la technologie se développait, différentes manières d'encoder l'information sont apparues. Dans la seconde moitié du XIXe siècle, l'inventeur américain Samuel Morse a inventé un code étonnant qui sert encore aujourd'hui l'humanité. Les informations sont codées avec trois caractères : signal long (tiret), signal court (point), pas de signal (pause) - pour séparer les lettres.

Son propre système existe aussi en informatique - il s'appelle codage binaire et repose sur la représentation des données par une séquence de deux caractères seulement : 0 et 1. Ces caractères sont appelés chiffres binaires, en anglais -chiffre binaire ou bit abrégé (bit).

Un bit peut exprimer deux concepts : 0 ou 1 ( Oui ou Non, le noir ou blanche, vrai ou Couché etc.). Si le nombre de bits est porté à deux, alors quatre concepts différents peuvent déjà être exprimés :

Trois bits peuvent coder huit valeurs différentes :

000 001 010 011 100 101 110 111

En augmentant de un le nombre de bits dans le système de codage binaire, on double le nombre de valeurs qui peuvent être exprimées dans ce système, c'est-à-dire que la formule générale est :

où N est le nombre de valeurs codées indépendantes ;

m - largeur de bits du codage binaire adopté dans ce système.

En informatique grand nombre processus d'information passe en utilisant codage des données... Par conséquent, comprendre ce processus est très important pour comprendre les bases de cette science. Le codage de l'information est compris comme le processus de conversion de caractères écrits dans différentes langues naturelles (russe, Anglais etc.) en notation numérique.

Cela signifie que lors de l'encodage de texte, chaque caractère se voit attribuer une valeur spécifique sous la forme de zéros et de uns -.

Pourquoi encoder des informations ?

Tout d'abord, vous devez répondre à la question pourquoi encoder des informations? Le fait est qu'un ordinateur n'est capable de traiter et de stocker qu'un seul type de représentation de données - numérique. Par conséquent, toute information qui y figure doit être traduite en vue numérique.

Normes de codage de texte

Pour que tous les ordinateurs puissent comprendre sans ambiguïté tel ou tel texte, il est nécessaire d'utiliser normes de codage de texte... Dans d'autres cas, un transcodage supplémentaire ou une incompatibilité de données sera nécessaire.



ASCII

La toute première norme informatique pour le codage des caractères était ASCII (nom complet - American Standard Code for Information Interchange). Seuls 7 bits ont été utilisés pour coder n'importe quel caractère. Comme vous vous en souvenez, seuls 27 ou 128 caractères peuvent être encodés sur 7 bits. Cela suffit pour coder les lettres majuscules et minuscules de l'alphabet latin, les chiffres arabes, les signes de ponctuation, ainsi qu'un certain ensemble de caractères spéciaux, par exemple le signe dollar - "$". Cependant, afin de coder les caractères des alphabets d'autres peuples (y compris les caractères de l'alphabet russe), il était nécessaire de compléter le code à 8 bits (28 = 256 caractères). Dans le même temps, un encodage distinct a été utilisé pour chaque langue.

UNICODE

Il fallait sauver la situation en terme de compatibilité tableaux de codage... Par conséquent, au fil du temps, des normes nouvelles et mises à jour ont été élaborées. Actuellement, l'encodage le plus populaire s'appelle UNICODE... Dans celui-ci, chaque caractère est codé sur 2 octets, ce qui correspond à 216 = 62536 codes différents.



Normes d'encodage graphique

Il faut beaucoup plus d'octets pour encoder une image que pour encoder des caractères. La plupart des images créées et traitées stockées dans la mémoire de l'ordinateur sont divisées en deux groupes principaux :

Graphiques raster

Dans les graphiques raster, une image est représentée par un ensemble de points colorés. De tels points sont appelés pixels. Lorsque l'image est agrandie, ces points se transforment en carrés.


Pour coder une image en noir et blanc, chaque pixel est codé avec un bit. Par exemple, le noir vaut 0 et le blanc vaut 1)


Notre image passée peut être encodée comme ceci :

Lors de l'encodage d'images non colorées, une palette de 256 nuances de gris est le plus souvent utilisée, allant du blanc au noir. Par conséquent, pour coder une telle gradation, un octet suffit (28 = 256).


Plusieurs schémas de couleurs sont utilisés dans le codage des images en couleurs.




En pratique, ils utilisent souvent Modèle de couleur RVB, où respectivement trois couleurs primaires sont utilisées : rouge, vert et bleu. Le reste des nuances de couleurs est obtenu en mélangeant ces couleurs primaires.


Donc pour coder le modèle à partir de trois couleurs en 256 tons, plus de 16,5 millions de nuances de couleurs différentes sont obtenues. C'est-à-dire que 3⋅8 = 24 bits sont utilisés pour l'encodage, ce qui correspond à 3 octets.


Naturellement, le nombre minimum de bits peut être utilisé pour coder des images en couleur, mais alors moins de tons de couleur peuvent être générés, et donc la qualité de l'image sera considérablement réduite.


Pour déterminer la taille de l'image, vous devez multiplier le nombre de pixels en largeur par la longueur du nombre de pixels et multiplier à nouveau par la taille du pixel lui-même en octets.


  • une- le nombre de pixels en largeur ;
  • b- le nombre de pixels de longueur ;
  • je- la taille d'un pixel en octets.

Par exemple, une image couleur de 800 à 600 pixels occupe 60 000 octets.

Graphiques vectoriels

Les objets graphiques vectoriels sont codés d'une manière complètement différente. Ici, l'image est constituée de lignes, qui peuvent avoir leurs propres coefficients de courbure.



Normes de codage audio

Les sons qu'une personne entend sont des vibrations de l'air. Les vibrations sonores sont le processus de propagation des ondes.

Le son a deux caractéristiques principales :

  • amplitude de vibration - détermine le volume du son;
  • fréquence de vibration - détermine la tonalité du son.


Le son peut être converti en un signal électrique à l'aide d'un microphone. Le son est codé à un intervalle de temps spécifique et prédéterminé. Dans ce cas, la taille du signal électrique est mesurée et une valeur binaire est attribuée. Plus ces mesures sont prises souvent, meilleure est la qualité sonore.




Un disque compact de 700 Mo contient environ 80 minutes de son de qualité CD.

Normes de codage vidéo

Comme vous le savez, une séquence vidéo est constituée de fragments changeant rapidement. Les images sont modifiées à une vitesse de l'ordre de 24 à 60 images par seconde.

La taille d'un métrage en octets est déterminée par la taille de l'image (le nombre de pixels par écran en hauteur et en largeur), le nombre de couleurs utilisées et le nombre d'images par seconde. Mais à côté de cela, il peut aussi y avoir une piste audio.

Un ordinateur moderne peut traiter des informations numériques, textuelles, graphiques, audio et vidéo. Tous ces types d'informations dans un ordinateur sont représentés en code binaire, c'est-à-dire qu'un alphabet d'une capacité de deux caractères (0 et 1) est utilisé. Ceci est dû au fait qu'il est commode de représenter l'information sous la forme d'une séquence d'impulsions électriques : il n'y a pas d'impulsion (0), il y a une impulsion (1). Un tel codage est généralement appelé binaire, et les séquences logiques de zéros et de uns elles-mêmes sont appelées langage machine.

Chaque chiffre du code binaire de la machine porte la quantité d'informations égale à un bit.

Cette conclusion peut être tirée en considérant les nombres de l'alphabet de la machine comme des événements équiprobables. Lors de l'écriture d'un chiffre binaire, il est possible de réaliser le choix d'un seul des deux états possibles, ce qui signifie qu'il porte une quantité d'information égale à 1 bit. Par conséquent, deux chiffres portent des informations 2 bits, quatre bits - 4 bits, etc. Pour déterminer la quantité d'informations en bits, il suffit de déterminer le nombre de chiffres du code machine binaire.

Encodage des informations textuelles

Actuellement, la plupart des utilisateurs utilisant un ordinateur traitent des informations textuelles, constituées de symboles : lettres, chiffres, signes de ponctuation, etc.

Sur la base d'une cellule d'une capacité d'information de 1 bit, seuls 2 états différents peuvent être codés. Pour que chaque caractère pouvant être saisi au clavier dans le registre latin reçoive son propre code binaire unique, 7 bits sont nécessaires. Sur la base d'une séquence de 7 bits, conformément à la formule de Hartley, N = 2 7 = 128 combinaisons différentes de zéros et de uns peuvent être obtenues, c'est-à-dire codes binaires. En associant à chaque caractère son code binaire, on obtient une table de codage. Une personne fonctionne avec des symboles, un ordinateur - avec leurs codes binaires.

Pour la disposition du clavier latin, une telle table de codage est une pour le monde entier, par conséquent, le texte tapé à l'aide de la disposition du clavier latin sera correctement affiché sur n'importe quel ordinateur. Cette table est appelée ASCII (American Standard Code of Information Interchange) en anglais prononcé [eski], en russe prononcé [aski]. Ci-dessous se trouve l'intégralité du tableau ASCII, dont les codes sont indiqués sous forme décimale. Il peut être utilisé pour déterminer que lorsque vous entrez, disons, le caractère « * » à partir du clavier, l'ordinateur le perçoit comme le code 42 (10), à son tour 42 (10) = 101010 (2) - c'est le code binaire du caractère « * ». Les codes 0 à 31 ne sont pas utilisés dans ce tableau.

table de caractères ASCII

Pour coder un caractère, une quantité d'informations égale à 1 octet est utilisée, c'est-à-dire I = 1 octet = 8 bits. En utilisant une formule qui relie le nombre d'événements possibles K et la quantité d'informations I, vous pouvez calculer combien de symboles différents peuvent être codés (en supposant que les symboles sont des événements possibles) :

K = 2 I = 2 8 = 256,

c'est-à-dire qu'un alphabet d'une capacité de 256 caractères peut être utilisé pour représenter des informations textuelles.

L'essence du codage est que chaque caractère se voit attribuer un code binaire de 00000000 à 11111111 ou le code décimal correspondant de 0 à 255.

Il faut se rappeler qu'actuellement pour le codage des lettres russes, cinq tables de codes différentes sont utilisées(KOI - 8, CP1251, CP866, Mac, ISO) et les textes encodés à l'aide d'un tableau ne s'afficheront pas correctement dans un autre encodage. Cela peut être clairement représenté comme un fragment de la table de codage de caractères combinée.

Différents symboles sont affectés au même code binaire.

Code binaire

Code décimal

Cependant, dans la plupart des cas, ce n'est pas l'utilisateur qui se soucie du transcodage des documents texte, mais programmes spéciaux- des convertisseurs intégrés aux applications.

Depuis 1997, le dernier Versions Microsoft Office prend en charge le nouveau codage. Cela s'appelle Unicode. Unicode est un livre de codes qui utilise 2 octets pour encoder chaque caractère, c'est-à-dire 16 bits. Sur la base d'un tel tableau, N = 2 16 = 65 536 caractères peuvent être encodés.

Unicode comprend presque toutes les écritures modernes, notamment : arabe, arménien, bengali, birman, grec, géorgien, devanagari, hébreu, cyrillique, copte, khmer, latin, tamoul, hangul, han (Chine, Japon, Corée), cherokee, éthiopien, Japonais (Katakana, Hiragana, Kanji) et autres.

À des fins académiques, de nombreuses écritures historiques ont été ajoutées, notamment : le grec ancien, les hiéroglyphes égyptiens, l'écriture cunéiforme, l'écriture maya, l'alphabet étrusque.

Unicode fournit une large gamme de symboles et de pictogrammes mathématiques et musicaux.

Il existe deux plages de codes pour les caractères cyrilliques en Unicode :

Cyrillique (#0400 - #04FF)

Supplément cyrillique (# 0500 - # 052F).

Mais l'implémentation de la table Unicode dans sa forme pure est retardée pour la raison que si le code d'un caractère occupera non pas un octet, mais deux octets, que pour stocker du texte il prendra deux fois plus d'espace disque, et pour sa transfert sur les canaux de communication - deux fois plus longtemps.

Par conséquent, maintenant dans la pratique, la représentation Unicode de l'UTF-8 (Unicode Transformation Format) est plus courante. UTF-8 offre la meilleure compatibilité avec les systèmes utilisant des caractères 8 bits. Le texte contenant uniquement des caractères numérotés inférieurs à 128 est converti en texte ASCII brut lorsqu'il est écrit en UTF-8. Le reste des caractères Unicode est représenté par des séquences de 2 à 4 octets. En général, puisque les caractères les plus courants au monde - les caractères de l'alphabet latin - en UTF-8 occupent toujours 1 octet, cet encodage est plus économique que l'Unicode pur.

Pour déterminer le code de caractère numérique, vous pouvez soit utiliser la table de codes. Pour ce faire, sélectionnez l'élément "Insérer" - "Symbole" dans le menu, après quoi la boîte de dialogue Symbole apparaît à l'écran. La table des mnémoniques de la police sélectionnée apparaît dans la boîte de dialogue. Les caractères de ce tableau sont disposés ligne par ligne, séquentiellement de gauche à droite, en commençant par le caractère Espace.

Nous nous sommes familiarisés avec les systèmes de nombres - les moyens de coder les nombres. Les chiffres donnent des informations sur le nombre d'articles. Cette information doit être codée, représentée dans une sorte de système numérique. Laquelle des méthodes connues à choisir dépend du problème à résoudre.
Jusqu'à récemment, les ordinateurs traitaient principalement des informations numériques et textuelles. Mais une personne reçoit la plupart des informations sur le monde extérieur sous forme d'images et de sons. Dans ce cas, l'image est plus importante. Rappelez-vous le proverbe : « Il vaut mieux voir une fois que d'entendre cent fois. Par conséquent, aujourd'hui, les ordinateurs commencent à travailler de plus en plus activement avec des images et du son. Nous allons certainement considérer les méthodes d'encodage de ces informations.

Codage binaire des informations numériques et textuelles.

Toute information est codée dans un ordinateur à l'aide de séquences de deux chiffres - 0 et 1. L'ordinateur stocke et traite les informations sous la forme d'une combinaison de signaux électriques : la tension 0,4V-0,6V correspond au zéro logique, et la tension 2,4V-2,7 V - à l'unité logique. Les séquences de 0 et 1 sont appelées codes binaires , et les nombres 0 et 1 sont morceaux (en chiffres binaires). Ce codage d'informations sur un ordinateur est appelé codage binaire ... Ainsi, le codage binaire est le codage avec le minimum possible de symboles élémentaires, le codage le plus par des moyens simples... C'est pourquoi il est remarquable d'un point de vue théorique.
Le codage binaire des informations attire les ingénieurs car il est facile à mettre en œuvre techniquement. Circuits électroniques pour traiter les codes binaires, ils doivent être dans l'un des deux états suivants : il y a un signal / pas de signal ou haute tension / basse tension .
Les ordinateurs dans leur travail fonctionnent avec des nombres réels et entiers, représentés sous la forme de deux, quatre, huit et même dix octets. Pour représenter le signe d'un nombre lors du comptage, un rang de signe , qui précède généralement les chiffres numériques. Pour les nombres positifs, le bit de signe est 0, et pour les nombres négatifs, 1. Pour écrire la représentation interne d'un entier négatif (-N), vous devez :
1) obtenir le code supplémentaire du nombre N en remplaçant 0 par 1 et 1 par 0 ;
2) ajouter 1 au nombre résultant.

Puisqu'un octet ne suffit pas pour représenter ce nombre, il est représenté par 2 octets ou 16 bits, son code complémentaire est 1111101111000101, donc -1082 = 1111101111000110.
Si un PC ne pouvait gérer que des octets uniques, cela ne serait pas d'une grande utilité. En réalité, le PC fonctionne avec des nombres écrits sur deux, quatre, huit et même dix octets.
À partir de la fin des années 1960, les ordinateurs ont été de plus en plus utilisés pour traiter l'information textuelle. Pour représenter des informations textuelles, 256 caractères différents sont généralement utilisés, par exemple des lettres majuscules et minuscules de l'alphabet latin, des chiffres, des signes de ponctuation, etc. Dans la plupart des ordinateurs modernes, chaque caractère correspond à une séquence de huit zéros et uns, appelée octet .
Un octet est une combinaison de huit bits de zéros et de uns.
Lors du codage des informations dans ces calculateurs électroniques, 256 séquences différentes de 8 zéros et uns sont utilisées, ce qui permet de coder 256 caractères. Par exemple, la grande lettre russe "M" a le code 11101101, la lettre "I" - le code 11101001, la lettre "P" - le code 11110010. Ainsi, le mot "WORLD" est codé avec une séquence de 24 bits ou 3 octets : 111011011110100111110010.
Le nombre de bits dans un message est appelé volume d'information du message. C'est intéressant!

Initialement, seul l'alphabet latin était utilisé dans les ordinateurs. Il a 26 lettres. Ainsi, cinq impulsions (bits) suffiraient à désigner chacune. Mais le texte contient des signes de ponctuation, des chiffres décimaux, etc. Ainsi, dans les premiers ordinateurs anglophones, un octet - une syllabe machine - comprenait six bits. Puis sept - non seulement pour distinguer les grosses lettres des petites lettres, mais aussi pour augmenter le nombre de codes de contrôle pour les imprimantes, les feux de signalisation et d'autres équipements. En 1964, le puissant IBM-360 est apparu, dans lequel l'octet est finalement devenu égal à huit bits. Le dernier huitième bit était nécessaire pour les caractères pseudo-graphiques.
L'affectation d'un code binaire spécifique à un caractère est une question de convention, qui est fixée dans la table de codes. Malheureusement, il existe cinq codages différents pour les lettres russes, de sorte que les textes créés dans un codage ne seront pas reflétés correctement dans un autre.
Chronologiquement, l'une des premières normes d'encodage des lettres russes sur les ordinateurs était KOI8 ("Code pour l'échange d'informations, 8 bits"). L'encodage le plus courant est l'encodage cyrillique standard de Microsoft Windows, désigné par l'abréviation CP1251 (« CP » signifie « Page de code » ou « page de code »). Apple a développé son propre codage des lettres russes (Mac) pour les ordinateurs Macintosh. L'Organisation internationale de normalisation (Organisation internationale de normalisation, ISO) a approuvé le codage ISO 8859-5 comme norme pour la langue russe. Enfin, un nouveau standard international Unicode est apparu, qui alloue non pas un octet, mais deux pour chaque caractère, et donc, avec son aide, il est possible de coder non pas 256 caractères, mais jusqu'à 65536.
Tous ces encodages suivent la table de codes ASCII (American Standard Code for Information Interchange), qui encode 128 caractères.

Table de caractères ASCII :

code symbole code symbole code symbole code symbole code symbole code symbole
32 Espacer 48 . 64 @ 80 P 96 " 112 p
33 ! 49 0 65 UNE 81 Q 97 une 113 q
34 " 50 1 66 B 82 R 98 b 114 r
35 # 51 2 67 C 83 S 99 c 115 s
36 $ 52 3 68 84 T 100 116 t
37 % 53 4 69 E 85 U 101 e 117 vous
38 & 54 5 70 F 86 V 102 F 118 v
39 " 55 6 71 g 87 W 103 g 119 w
40 ( 56 7 72 H 88 X 104 h 120 X
41 ) 57 8 73 je 89 Oui 105 je 121 oui
42 * 58 9 74 J 90 Z 106 j 122 z
43 + 59 : 75 K 91 [ 107 k 123 {
44 , 60 ; 76 L 92 \ 108 je 124 |
45 - 61 < 77 M 93 ] 109 m 125 }
46 . 62 > 78 N 94 ^ 110 m 126 ~
47 / 63 ? 79 O 95 _ 111 o 127 DEL

Le codage binaire du texte se produit comme suit : lorsqu'une touche est enfoncée, une certaine séquence d'impulsions électriques est transmise à l'ordinateur, et chaque caractère correspond à sa propre séquence d'impulsions électriques (zéros et uns sur Language de machine). Le programme pilote de clavier et d'écran identifie le caractère par la table de codes et crée son image à l'écran. Ainsi, les textes et les nombres sont stockés dans la mémoire de l'ordinateur en code binaire et par programmation sont convertis en images à l'écran.

Codage binaire des informations graphiques.

Depuis les années 80, la technologie de traitement de l'information graphique sur ordinateur s'est rapidement développée. Infographie Il est largement utilisé dans la modélisation informatique dans la recherche scientifique, les simulateurs informatiques, l'animation par ordinateur, les graphiques commerciaux, les jeux, etc.
Les informations graphiques sur l'écran d'affichage sont présentées sous la forme d'une image formée de points (pixels). Pair à photo de journal et vous verrez qu'il se compose également des plus petits points. S'il ne s'agit que de points noirs et blancs, chacun d'eux peut être codé sur 1 bit. Mais s'il y a des nuances sur la photo, alors deux bits permettent d'encoder 4 nuances de points : 00 - blanc, 01 - gris clair, 10 - gris foncé, 11 - noir. Trois bits vous permettent d'encoder 8 nuances, etc.
Le nombre de bits requis pour coder une nuance de couleur est appelé profondeur de couleur.

V ordinateurs modernes résolution (le nombre de points sur l'écran), ainsi que le nombre de couleurs dépendent de la carte vidéo et peuvent être modifiés par programmation.
Les images couleur peuvent avoir différents modes : 16 couleurs, 256 couleurs, 65536 couleurs ( haute couleur), 16 777 216 couleurs ( vraie couleur). Un point pour le mode haute couleur 16 bits ou 2 octets sont requis.
La résolution d'écran la plus courante est de 800 x 600 pixels. 480 000 points. Calculons la quantité de mémoire vidéo requise pour le mode haute couleur : 2 octets * 480 000 = 960 000 octets.
Des unités plus grandes sont également utilisées pour mesurer la quantité d'informations :


Par conséquent, 960 000 octets correspondent approximativement à 937,5 Ko. Si une personne parle huit heures par jour sans interruption, alors dans 70 ans de sa vie, elle parlera environ 10 gigaoctets d'informations (cela représente 5 millions de pages - une pile de papier de 500 mètres de haut).
Le débit en bauds est le nombre de bits transmis par seconde. La vitesse de transmission de 1 bit par seconde est appelée 1 baud.

Un bitmap est stocké dans la mémoire vidéo d'un ordinateur, qui est un code binaire d'une image, d'où il est lu par un processeur (au moins 50 fois par seconde) et affiché à l'écran.


Codage binaire des informations audio.

Depuis le début des années 90 Ordinateur personnel eu l'opportunité de travailler avec des informations audio. Chaque ordinateur équipé d'une carte son peut enregistrer sous forme de fichiers ( fichier est une certaine quantité d'informations stockées sur le disque et nommées ) et reproduire les informations audio. Grâce à spécial outils logiciels(éditeurs de fichiers audio) ouvert de nombreuses opportunités sur la création, l'édition et l'écoute de fichiers son. Des programmes de reconnaissance vocale sont créés et il devient possible de contrôler l'ordinateur par la voix.
Exactement carte son(carte) convertit un signal analogique en un phonogramme discret et vice versa, un son "numérisé" - en un signal analogique (continu), qui est envoyé à l'entrée du haut-parleur.


Lors du codage binaire d'un signal audio analogique, le signal continu est échantillonné, c'est-à-dire est remplacé par une série de ses échantillons individuels - échantillons. La qualité de l'encodage binaire dépend de deux paramètres : la quantité niveaux discrets signal et nombre d'échantillons par seconde. Le nombre d'échantillons ou le taux d'échantillonnage dans les adaptateurs audio est différent : 11 kHz, 22 kHz, 44,1 kHz, etc. Si le nombre de niveaux est de 65536, alors un signal sonore calculé 16 bits (216). Un adaptateur audio 16 bits encode et reproduit le son avec plus de précision qu'un adaptateur audio 8 bits.
Le nombre de bits requis pour coder un niveau sonore est appelé la profondeur du son.
La taille d'un fichier audio mono (en octets) est déterminée par la formule :


Avec le son stéréo, le volume du fichier audio double, avec le son quadriphonique, il quadruple.
À mesure que les programmes deviennent plus complexes et que leurs fonctions augmentent, ainsi que l'émergence d'applications multimédias, le volume fonctionnel des programmes et des données augmente. Si au milieu des années 80, le volume habituel de programmes et de données était de dizaines et parfois seulement de centaines de kilo-octets, alors au milieu des années 90, il a commencé à atteindre des dizaines de mégaoctets. En conséquence, la quantité de RAM augmente.