Quel est le pouvoir de l’alphabet si le message d’information. Problèmes de puissance alphabétique (approche alphabétique)

Il existe plusieurs façons de mesurer la quantité d'informations. L'un d'eux s'appelle alphabétique.

Approche alphabétique permet de mesurer la quantité d'informations dans un texte (message symbolique) composé de caractères d'un certain alphabet.

Alphabet est un ensemble de lettres, signes, chiffres, parenthèses, etc.
Le nombre de caractères de l'alphabet s'appelle son pouvoir.

Avec l'approche alphabétique, on pense que chaque caractère du texte a une signification spécifique. poids des informations. Le poids informationnel d’un symbole dépend de la puissance de l’alphabet.

Quelle est la puissance minimale de l’alphabet qui peut être utilisée pour enregistrer (coder) des informations ?



Appelons une combinaison de 2, 3, etc. peu code binaire.

Combien de caractères peuvent être codés avec deux bits ?

Numéro de séquence du symbole

1

2

3

4

Code binaire à deux chiffres

00

01

10

11

4 personnages 2 morceaux.

Combien de caractères peuvent être codés avec trois bits ?

Numéro de séquence du symbole

1

2

3

4

5

6

7

8

Code binaire à trois chiffres

000

001

010

011

100

101

110

111


Il s'ensuit que dans l'alphabet de cardinalité 8 caractères poids informationnel de chaque caractère - 3 bits.

On peut conclure que dans l'alphabet avec capacité 16 caractères le poids informationnel de chaque caractère sera 4 bits.

Désignons la puissance de l'alphabet par la lettre N, et le poids informationnel du symbole est la lettre b.

La relation entre le pouvoir de l'alphabet N et le poids informationnel du symbole b.

N

2

4

8

16

b

1 peu

Volume d'information du texte et unités de mesure de l'information


Un ordinateur moderne peut traiter des informations numériques, textuelles, graphiques, sonores et vidéo. Tous ces types d'informations dans un ordinateur sont présentés sous forme de code binaire, c'est-à-dire que seuls deux caractères 0 et 1 sont utilisés. Cela est dû au fait qu'il est pratique de représenter les informations sous la forme d'une séquence d'impulsions électriques : il y a. pas d'impulsion (0), il y a une impulsion (1).

Un tel codage est généralement appelé binaire, et les séquences logiques de zéros et de uns elles-mêmes sont appelées langage machine.

Quelle doit être la longueur du code binaire pour pouvoir être utilisé pour encoder les caractères de votre clavier d'ordinateur ?

Ainsi, le poids de l'information d'un caractère d'un alphabet suffisant est de 1 octet.

Pour mesurer de grands volumes d'informations, des unités d'informations plus grandes sont utilisées :

Unités de mesure de la quantité d'informations :

1 octet = 8 bits

1 kilo-octet = 1 Ko = 1024 octets

1 mégaoctet = 1 Mo = 1 024 Ko

1 gigaoctet = 1 Go = 1 024 Go

Volume d'information du texte

1. Nombre de personnages dans le livre :

60 * 40 * 150 = 360 000 caractères.

2. Parce que 1 caractère pèse 1 octet, le volume d'informations du livre est égal à

360 000 octets.

3. Convertissons les octets en unités plus grandes :

360 000/1024 = 351,56 Ko

351,56/1024 = 0,34 Mo

Réponse : Le volume d'informations du texte est de 0,34 Mo.

Tâche:

Le volume d'informations du texte préparé à l'aide d'un ordinateur est de 3,5 Ko. Combien de caractères contient ce texte ?

1. Convertissons le volume de Mo en octets :

3,5 Mo * 1024 = 3584 Ko

3 584 Ko * 1 024 = 3 670 016 octets

2. Parce que 1 caractère pèse 1 octet, le nombre de caractères dans le texte est

Le développement des hautes technologies a conduit à l'émergence d'un grand nombre de termes et de concepts que tous les utilisateurs rencontrent lorsqu'ils travaillent avec des ordinateurs. Les utilisateurs avancés ont une idée de la plupart d'entre eux, cependant, pour les débutants, il est très difficile de comprendre tous les termes. L’un des termes que tout le monde, même les utilisateurs expérimentés, ne connaît pas est le pouvoir de l’alphabet. Qu’entend-on par ce concept et comment est-il calculé ?

Méthodes de mesure des informations sous forme électronique

La puissance de l’alphabet peut être utile à de nombreux utilisateurs en cours de travail. Cependant, avant de définir ce terme et de comprendre les méthodes de son calcul, il est nécessaire de parler un peu de la façon dont l'information électronique est mesurée, car c'est la base matérielle sur laquelle repose la théorie ultérieure.

Tout le monde sait que toute grandeur a son propre système de mesure. Par exemple, la température est mesurée en degrés, la distance est exprimée en mètres, les intervalles de temps sont construits à partir de secondes, etc. Cependant, peu d'utilisateurs connaissent les quantités dans lesquelles les informations textuelles sous forme électronique sont mesurées. À ces fins, l’informatique a créé une définition du pouvoir de l’alphabet.

Définition du terme

Partant du fait que la valeur d'absolument n'importe quelle quantité connue de l'humanité de nos jours est un certain paramètre constitué d'un ensemble d'unités de mesure, la définition du concept de puissance de l'alphabet est la plus simple à faire comme suit : la puissance de l'alphabet L'alphabet est le nombre de caractères qui font partie d'une langue.
Cependant, il ne s'agit que d'une définition générale qui ne reflète que le sens superficiel du pouvoir de l'alphabet, puisque la définition elle-même est de nature plus profonde. Pour comprendre toute son essence, il est nécessaire de comprendre ce que représentent les symboles du point de vue de la haute technologie. Tous les caractères utilisés dans un ordinateur comprennent des lettres, des chiffres, des signes de ponctuation et un ensemble de caractères spéciaux. Mais ce n’est pas tout, puisque pour déterminer la puissance de l’alphabet, il faut aussi prendre en compte l’espace, qui est destiné à séparer les mots les uns des autres.

Prenons comme exemple la disposition du clavier russe, qui est utilisée pour taper du texte russe et se compose de 34 lettres, 10 chiffres et 11 symboles supplémentaires, dont le nombre total est de 54, qui à son tour est classé comme la puissance alphabétique du russe. clavier.

Poids informationnel des caractères

Avançons progressivement. La puissance de l’alphabet ne réside pas simplement dans le nombre de lettres et de chiffres utilisés dans le texte imprimé. Une approche plus approfondie est nécessaire pour déterminer ce paramètre.
Réfléchissons un instant au nombre minimum de caractères inclus dans une lettre, un chiffre ou un caractère spécial ? La bonne réponse est deux. Chaque caractère d'un ordinateur a son propre poids d'information, grâce auquel la machine est capable de reconnaître les informations saisies par l'utilisateur. Le fait est que la machine n’est pas capable de reconnaître les informations sous la forme sous laquelle les gens les présentent. Au lieu de cela, il utilise un langage machine spécial composé de zéros et de uns qui convertit les informations textuelles en code binaire que le système informatique peut comprendre.
Quant au poids de l'information, il est exprimé en bits et constitue l'unité standard de mesure de l'information sous forme électronique.

Un peu sur le code binaire

Nous avons désormais une définition plus ou moins compréhensible du pouvoir de l’alphabet. Cependant, pour comprendre toute la profondeur de la théorie de la représentation des informations électroniques par des machines, il est nécessaire de comprendre le code binaire. Considérons cette question en utilisant l'exemple de la puissance d'un alphabet composé de quatre caractères quelconques, chacun ayant un poids de deux bits.

Suite à ce qui précède, quatre caractères auront les quatre bits, huit - trois, et ainsi de suite. Sur la base de ce principe, le poids des informations textuelles exprimées sous forme électronique est calculé par des systèmes informatiques.

Calcul de la puissance de l'alphabet et son utilisation pratique

Nous avons traité de la terminologie et des termes théoriques de base, regardons maintenant quelle relation existe entre la puissance de l'alphabet et son poids. Pour mieux comprendre la relation entre eux, regardons une formule : N=2b, dans laquelle la première variable correspond au nombre de caractères, et la seconde au nombre de caractères utilisés par les ordinateurs en langage machine.
De cette expression mathématique il résulte que 21=2, 22=4, 23=8, 24=16 et ainsi de suite. Sur cette base, une conclusion très raisonnable et valable peut être tirée : le nombre de symboles utilisés dans le langage machine représente le poids du symbole.

Comment est mesuré le volume d’informations ?

Les exemples évoqués ci-dessus sont très simples et peuvent être utilisés pour donner une idée générale du pouvoir de l’alphabet. Cependant, en réalité, tout semble beaucoup plus compliqué, puisque chaque utilisateur, lors de la saisie, utilise non seulement des minuscules, mais aussi des majuscules, ainsi que différentes polices, dispositions linguistiques, signes de ponctuation, caractères spéciaux, couleurs et bien plus encore. Sur cette base, nous pouvons supposer que le nombre total de tous les symboles est de 256. Puisque 256 est égal à 28 en code binaire, dans ce cas, le poids de chaque symbole est de 8 bits ou un octet.

Ainsi, disposant de tous les paramètres nécessaires, nous pouvons calculer le volume d'informations électroniques. Par exemple, nous avons imprimé 30 pages d’informations imprimées, chacune contenant 50 lignes de 60 caractères différents. En utilisant la formule que nous connaissons, nous effectuons les calculs nécessaires :

— le poids de l'information d'une ligne sera égal à : 50 x 60 = 3000 octets ;
- et le texte entier pèsera : 3000 x 50 = 150 000 octets.

Il convient de noter que le résultat final peut être exprimé non seulement en octets, mais également convertir l'unité de mesure standard en kilo-octets, mégaoctets et autres. Pour ce faire, il est nécessaire de diviser la valeur d'ordre inférieur par 1024, car c'est le nombre d'unités de valeur inférieure qui forment l'unité de mesure supérieure.

Conclusion

Après avoir lu cet article, vous avez une compréhension de base de ce qu’est la puissance de l’alphabet et comment la calculer. Cependant, une approche exclusivement mathématique a été envisagée, qui ne prend pas en compte certains autres paramètres dont le principal est la charge sémantique. Cet aspect est l’un des plus importants à comprendre, car quel que soit le volume des symboles, s’ils ne portent aucune valeur informationnelle, alors leur valeur est nulle. Cependant, il est toujours possible de calculer le poids d’un ensemble de caractères dénué de sens.

D’une manière générale, le pouvoir de l’alphabet, en tant que terme informatique, n’est pas difficile à comprendre. Mais de nombreux utilisateurs négligent ce terme car ils le jugent inutile. Cependant, dans la pratique, tout est complètement différent. De nos jours, les utilisateurs travaillent principalement avec des informations électroniques qui, avec le temps, peuvent remplacer complètement les informations imprimées. Il est donc nécessaire de comprendre comment ces informations sont exprimées sous forme machine et comment elles sont calculées.

Nous désignerons cette valeur par la lettre N. Par exemple, la puissance de l'alphabet des lettres russes et des symboles supplémentaires marqués est de 54.

Imaginez que le texte vous parvienne de manière séquentielle, un caractère à la fois, comme un morceau de papier sortant d'un télégraphe. Supposons que chaque caractère apparaissant sur la bande est également susceptible d'être n'importe quel caractère de l'alphabet. En réalité, ce n’est pas tout à fait vrai, mais par souci de simplicité, nous accepterons cette hypothèse. N'importe lequel des N caractères peut apparaître dans chaque position de texte suivante. Ensuite, selon la formule que nous connaissons N = 2 I (voir l'approche substantielle), chacun de ces symboles porte I bit d'information, qui peut être déterminé en résolvant l'équation : 2 I = 54. Nous obtenons : I = 5,755 bits - cette quantité d'informations est portée par un symbole par texte russe.

Pour trouver la quantité d'informations dans l'ensemble du texte, vous devez compter le nombre de caractères qu'il contient et multiplier par I.

Comptons la quantité d'informations sur une page du livre. Laissez la page contenir 50 lignes. Chaque ligne contient 60 caractères. Cela signifie que 50x60=3000 caractères tiennent sur la page. Alors le volume d'informations sera égal à : 5,755 x 3000 = 17265 bits.

Dans l'approche alphabétique de mesure de l'information, la quantité d'informations ne dépend pas du contenu, mais de la taille du texte et de la puissance de l'alphabet.

Ainsi, l'approche alphabétique de la mesure des informations peut être représentée sous forme de diagramme :

Lors de l'utilisation du système binaire (l'alphabet est composé de deux caractères : 0 et 1), chaque caractère binaire transporte 1 bit d'information.

L'approche alphabétique est une manière objective de mesurer l'information, par opposition à une approche subjective du contenu.

Il est plus pratique de mesurer des informations lorsque la taille de l'alphabet N est égale à une puissance entière de deux. Par exemple, si N = 16, alors chaque symbole transporte 4 bits d'information car 2 4 = 16. Et si N = 32, alors un symbole « pèse » 5 bits.

Il n’y a théoriquement aucune limite à la taille maximale de l’alphabet. Cependant, il existe un alphabet que l'on peut qualifier de suffisant. Il s'agit d'un alphabet d'une capacité de 256 caractères. Un alphabet de cette taille peut accueillir tous les symboles pratiquement nécessaires : lettres latines et russes, chiffres, opérations arithmétiques, parenthèses de toutes sortes, signes de ponctuation...

Puisque 256 = 2 8, alors un caractère de cet alphabet « pèse » 8 bits. De plus, 8 bits d'information sont une valeur si caractéristique qu'on leur a même donné son propre nom - un octet.

1 octet = 8 bits.

Pour mesurer de grandes quantités d'informations, les unités suivantes sont utilisées :

1 Ko (un kilo-octet) = 1024 octets = 2 10 octets

1 Mo (un mégaoctet) = 1 024 Ko = 2 10 Ko = 2 20 octets

1 Go (un gigaoctet) = 1 024 Mo = 2 10 Mo = 2 30 octets


1 To (un téraoctet) = 1 024 Go = 2 10 Go = 2 40 octets

1 Po (un pétaoctet) = 1 024 To = 2 10 To = 2 50 octets

1 EByte (un exaoctet) = 1024 PByte = 2 10 PBytes = 2 60 octets

1 Zoctet (un zettaoctet) = 1024 EB = 2 10 EB = 2 70 octets

1Ybyte (un yottaoctet)= 1024Zbyte=2 10 Zbyte=2 80 octets.

Encodage des informations textuelles
Les informations textuelles dans un ordinateur, comme tous les autres types d'informations, sont codées à l'aide de codes binaires. Chaque caractère de l'alphabet est associé à un nombre entier, qui est considéré comme le code de ce caractère.
Les codages traditionnels utilisent une séquence de 8 zéros et uns pour coder un caractère 8 bits = 1 octet.
Il existe 256 séquences différentes de 8 zéros et uns (2 8 =256). Par conséquent, un tel code de 8 bits permet de coder 256 caractères différents.
L'attribution d'un code numérique spécifique à un symbole est une question de convention. Le tableau a été adopté comme norme internationale ASCII(American Standard Code for Information Interchange), codant la première moitié des caractères avec des codes numériques de 0 à 127 (les codes de 0 à 32 ne sont pas attribués aux caractères, mais aux touches de fonction).

Table de codes ASCII

Pour coder les caractères des alphabets nationaux, une extension de la table de codes ASCII est utilisée, c'est-à-dire des codes 8 bits de 128 à 255.


Les normes nationales pour les tables de codage incluent la partie internationale de la table de codes sans modifications, et la deuxième partie contient les codes des alphabets nationaux, des symboles pseudographiques et certains symboles mathématiques. Actuellement, il existe 5 encodages cyrilliques différents (KOI8, Windows. MSDOS, Macintosh, ISO), ce qui pose certaines difficultés lorsqu'on travaille avec des documents en langue russe.
À la fin des années 90, une nouvelle norme internationale, Unicode, est apparue, qui alloue non pas un octet pour 1 caractère, mais deux, permettant ainsi de coder 65 536 caractères différents. Il comprend tous les alphabets du monde existants, disparus et créés artificiellement, ainsi que de nombreux symboles mathématiques, musicaux, chimiques et autres.


Approche alphabétique de la mesure des informations

Avec une approche alphabétique pour déterminer la quantité d'informations distrait du contenu informations et considérer le message d’information comme séquence de caractères un certain système de signes.

Tout est prêt utilisé dans la langue personnages nous appellerons traditionnellement alphabet .

Le nombre total de caractères de l'alphabet est généralement appelé le pouvoir de l'alphabet .

Nous désignerons cette quantité par la lettre N .


POUVOIR DE L'ALPHABET RUSSE :

  • 33 lettres
  • 10 chiffres
  • 11 signes de ponctuation
  • supports
  • espace

Poids informationnel d'un symbole

Le poids informationnel d’un symbole dépend de la puissance de l’alphabet.

poids informationnel du symbole - la quantité d'informations qu'un symbole transporte.

Plus petit nombre de caractères de l'alphabet : 2 (0 et 1) - alphabet binaire.

Le poids informationnel d'un symbole de l'alphabet binaire est pris comme unité d'information et est appelé 1 PEU.


À mesure que la puissance de l'alphabet augmente, le poids informationnel des symboles de cet alphabet augmente. Ainsi, un caractère d’un alphabet de quatre caractères (N = 4) « pèse » 2 bits.

En utilisant trois chiffres binaires, vous pouvez créer 8 combinaisons différentes

Par conséquent, si la puissance de l'alphabet est de 8, alors le poids de l'information d'un caractère est de 3 bits.

Numéro de séquence du symbole

Code binaire à deux chiffres

Numéro de séquence du symbole

Code binaire à trois chiffres


Chaque caractère de l'alphabet de 16 caractères peut être codé avec un code binaire à quatre chiffres. Et ainsi de suite.

Trouvons la relation entre la puissance de l'alphabet (N) et le nombre de caractères dans le code (b) - la capacité en bits du code binaire.

Notez que 2=2 1, 4=2 2, 8=2 3, 16=2 4.

En général, cela s'écrit ainsi : N=2 b


Tableau dépendance de la puissance de l'alphabet sur le poids informationnel du symbole

Poids informationnel du symbole

Symboles alphabétiques

Le pouvoir de l'alphabet

00000000… …11111111


La profondeur de bits d'un code binaire est le poids informationnel d'un symbole.

Le poids informationnel de chaque caractère, exprimé en bits ( b), et le pouvoir de l'alphabet ( N) sont liés entre eux par la formule : N=2 b

L’alphabet à partir duquel le « texte informatique » est composé contient 256 caractères. Un alphabet de cette taille peut accueillir presque tous les symboles nécessaires.


Puisque 256 = 2 8, alors un caractère de l'alphabet informatique « pèse » 8 bits d'information - c'est une valeur si caractéristique qu'on lui a même donné son propre nom - un octet.

1 octet = 8 bits

Il est facile de calculer le volume d'informations d'un texte si l'on sait que le poids d'information d'un caractère est de 1 octet. Il vous suffit de compter le nombre de caractères dans le texte. La valeur résultante sera le volume d'informations du texte, exprimé en octets.


, :, ;, #, &) b = 8 bits = 1 octet N = 256 = 2 8 N = 2 b 1 octet est le poids d'information d'un caractère de l'alphabet informatique = = = 1024 octets 2 10 octets 1 Ko 1 kilo-octet 1 Mo 1 mégaoctet 2 10 Ko 1 024 Ko = = = 1 024 Mo 2 10 Mo 1 gigaoctet 1 Go = = = 10" width="640"

UNITÉS DE MESURE DE L'INFORMATION

ALPHABET DES SYMBOLES INFORMATIQUES

  • Lettres russes (russes)
  • Latin ( LAT ) des lettres
  • nombres (1, 2, 3, 4, 5, 6, 7, 8, 9, 0)
  • signes mathématiques (+, -, *, / , ^, =)
  • autres caractères ("", N°, %, , , :, ;, #, &)

b = 8 peu = 1 octet

N = 256 = 2 8

N=2 b

1 octet est le poids informationnel d'un caractère de l'alphabet informatique

1024 octets

1 kilo-octet

1 mégaoctet

1024 Ko

1024 Mo

1 gigaoctet


1 Mo (mégaoctet) = 1 024 Ko (2 à 10 Ko ou 2 à 20 octets)

1 Go (gigaoctet) = 1 024 Mo (2 à 10 Mo ou 2 à 30 octets)

1 To (téraoctet) = 1 024 Go (2 à 10 Go ou 2 à 40 octets)

Mais dans un futur proche, les unités suivantes nous attendent :

1 Po (pétaoctet) = 1 024 To (2 à 10 To ou 2 à 50 octets)

1 EByte (exaoctet) = 1024 Po-octets (2 à 10 Po ou 2 à 60 octets)

1 Zbyte (zettabyte) - 1024 EBytes (2 10 EBytes ou 2 70 octets)

1 (yottaoctet) - 1024 Zoctets (2 10 Zoctets ou 2 80 octets)


VOLUME D'INFORMATION DU TEXTE

TÂCHE

Le livre, préparé à l'aide d'un ordinateur, contient 150 pages. Chaque page comporte 40 lignes, chaque ligne comporte 60 caractères (y compris les espaces entre les mots). Combien d’informations contient le livre ?

SOLUTION

La puissance de l’alphabet informatique est de 256, donc un caractère contient 1 octet d’information. Cela signifie que la page du livre contient 40 60 = 2400 octets d'informations.

[nombre de caractères par ligne] [nombre de lignes] = [volume d'informations sur la page]

Le volume de toutes les informations contenues dans le livre (en différentes unités) :

[volume d'informations sur la page] [nombre de pages] = [volume d'informations du livre]

2400 150 = 360 000 octets / 1024 = 351,5625 Ko / 1024 = 0,34332275 Mo


Problème 1

Le message est écrit en lettres de l'alphabet de 128 caractères et contient 30 caractères. Quelle quantité d’informations contient-il ?

N = 2 b

b = 7 bits (poids d'un caractère).

Le message contient 30 caractères, donc

7×30= 210 bits


Problème 2

Combien d'octets y a-t-il dans un message contenant 1000 bits ?

1 octet = 8 bits

1000 : 8 = 125 octets


Tâche 3

Un message d'information de 5 Ko contient 8 192 caractères. Combien de caractères contient l’alphabet avec lequel ce message a été écrit ?

SOLUTION

N = 2 b

5 Ko = 5 120 octets = 40 960 bits

Le message contient 8192 caractères, donc

b = 40960 : 8192 = 5 bits (poids d'un caractère).


Tâche 4

Le texte, tapé sur un ordinateur, occupe cinq pages. Chaque page contient 30 lignes de 70 caractères par ligne. Combien de RAM ce texte occupe-t-il ? Le texte tiendra-t-il sur un CD ?

Répondre

30 × 70 = 2100 caractères

2100 × 8 = 16800 octets

16800 : 1024 = 16,40625 Ko


Tâche 5

Quelle quantité d’informations contient un message de 10 caractères écrit avec des lettres d’un alphabet de 32 caractères ?

N = 2 b

SOLUTION

Quantité d'informations

je = 10*5 = 50 bits


Tâche 6

Pour stocker du texte, 84 000 bits sont nécessaires. Combien de pages prendra ce texte si la page contient 30 lignes de 70 caractères par ligne ?

SOLUTION

1 octet = 8 bits.

84000/8=10500 caractères dans le texte.

La page contient

30×70=2100 caractères.

5 pages.

5 pages.

RÉPONDRE:


Tâche 7

La tribu Chichevok compte 24 lettres et 8 chiffres dans son alphabet. Il n'y a pas de signes de ponctuation ni de signes arithmétiques. Quel est le nombre minimum de chiffres binaires dont ils ont besoin pour coder tous les caractères ?

N = 2 b

SOLUTION

RÉPONDRE:

5 bits


La première lettre se compose de 50 caractères d’un alphabet de 32 caractères et la deuxième lettre de 40 caractères d’un alphabet de 64 caractères.

Comparez la quantité d'informations contenues

en deux lettres.

Tâche 8

Déterminons la capacité informationnelle d'un caractère dans chaque lettre :

SOLUTION

2 b = 32, b = 5 bits – pour la première lettre, 2 b = 64, b = 6 bits – pour la deuxième lettre

Déterminons la quantité d'informations dans chaque lettre :

50*5 = 250 bits – pour la première lettre,

40*6 = 240 bits – pour la deuxième lettre.

Trouvons la différence entre les volumes d'informations de deux lettres. 250 - 240 = 10 bits.



 

Il pourrait être utile de lire :