s
19 708 Pages

la numérisation est le processus de conversion qui, appliqué à mesurage d'un phénomène physique, il détermine la transition entre la plage de valeurs continue à celle des valeurs discret. Ce processus est généralement synthétisé aujourd'hui en termes de transition de 'analogique un numérique.

La mesure de la température à travers un thermomètre ou la représentation d'un son par le suivi des ondes sont des exemples de grandeurs de type analogique, parce que les valeurs qui peuvent être prises sont infinies.

En fait, l'opération implique une perte d'information, mais dans certains cas, il est acceptable car il gagne en simplicité de représentation ou dans d'autres cas, cependant, ne sont pas perçus.

Dans le domaine de la 'informatique et dell 'électronique, la numérisation est définie comme étant le processus de transformation d'une image, un son, un document dans un format numérique interprétable par un ordinateur, où pour le format numérique signifie un code binaire dans lequel tout est représenté par des combinaisons de zéro ou un, puis par les États du type on / off. un disque vinyle sur lequel vous avez enregistré une chanson est un exemple de lecture analogique d'un son; la même chanson jouée par un ordinateur est son format numérique.

Analogique et numérique

à analogique on entend un système dans lequel un grandeurs physiques à variation continue (par exemple, l'intensité de l'onde sonore) est représenté par un autre (par exemple, la tension d'un signal électrique) de la manière la plus fidèle possible. Il est le système de l'approximation, l'opposition originale / faux, imprécis. vous numérique à la place d'un système ou d'un dispositif qui exploite les signaux discret de représenter et de jouer signaux continue sous la forme de chiffres ou d'autres caractères. Il est l'univers dans lequel les informations sont représentées par des chaînes de 0 et de 1, actifs / inactifs, haut / bas, on / off, vrai / faux. L'analogique, comme expliqué par le mot lui-même, tend à mettre en évidence le lien qui existe entre les phénomènes, selon des grandeurs continues qui subissent des transformations progressives, est le gardien et le témoignage du temps, la tradition; numérique est plutôt le domaine des caractères discrets, discontinu, un monde où les choses ont sans nuances. Ils seront 0 ou 1, ou sur, ou bits bits.

Dans la parabole de la sophistication de ce que vous avez autour, non seulement un processus inscrit l'amélioration technologique, mais trouver l'espace les nouveaux gènes de changer et de repenser la façon de penser de la réalité, ses choses et usages nous faisons. La migration de l'analogique au numérique ne concerne pas exclusivement le monde de la technologie et de ses utilisateurs, et pas seulement les médias et comment, au cours des dernières années, a pris soin des anciens et des nouveaux médias. analogique et numérique parler, après tout, les moyens de parler aujourd'hui des deux modes exclusifs de production et l'utilisation du flux de communication (ou peut-être, les catégories les plus importantes de la gestion et de la compréhension de la réalité).

Le terme vient du mot numérique numérisation; il indique la transformation ou la réalisation d'un instrument de mesure d'une grandeur physique, ou un appareil de traitement de données, ou d'un système de communication de telle sorte que la variable de sortie est exprimée sous forme numérique et non sous la forme analogique. Le terme est également fait référence à la même quantité physique.

Les niveaux d'analyse et de pertinence

Il est à cet égard, par conséquent, qu'il sera approprié de diviser les coordonnées d'une réflexion sur ce sujet en 3 niveaux d'analyse et de pertinence: 1) un premier niveau relatif à la dynamique du système de production plus générale; 2) un second niveau par rapport aux voies d'intégration et de différenciation du système interne; 3) Enfin, une dernière, concerne les effets qui se sont produits dans le système et la culture des communautés investies par l'avènement des TIC.

En ce qui concerne la sphère de la production, il faut dire que le révolution numérique Il va un long chemin, trouver des débuts dans des moments inattendus. Il doit être lu comme un processus qui n'a pas trouvé sa foudre de réalisation avec l'avènement du bit, mais par un chemin de dix ans, alimenté par la nécessité que le système de production progressivement exprimé. Déjà le télégraphe et les premières machines de computistiche ont travaillé selon une logique numérique, bien que ne possédant pas la technologie de bits. Il y avait, en fait, déjà une première exigence de la chaîne de production.

Histoire de la numérisation

L'objectif sous-jacent, identifié par une avant-garde de la recherche depuis les années trente du siècle dernier, est de réorganiser la connaissance de plus en plus efficacement, ce qui simplifie la sélection des nouvelles dans un monde inondé d'informations. Dans un travail extrême simplification du processus, on pourrait faire valoir que l'objectif irréaliste hypertexte généré, PC, Internet.

Ce ne fut que l'invention de la puce, les premiers ordinateurs et l'Internet parce que les bits deviennent vraiment une révolution. Révolution de poussée et alimenté par les intérêts combinés de l'industrie militaire (dans les années cinquante) et les entreprises contemporaines mondialisées. Le bit est à la même cause et conséquence du phénomène de la mondialisation. D'un progrès technologique main a ouvert un potentiel inimaginable en termes d'intelligence de la vague montante des machines, du point de vue de la transformation, le traitement et la transmission de l'information. À travers les besoins des gouvernements et les grandes entreprises ont débloqué des fonds importants pour la recherche et l'expérimentation de ces technologies.

Jusqu'à hier (tant qu'il y avait la guerre froide) étaient les militaires pour financer la recherche de pointe: casques pointe pour la réalité virtuelle ou des systèmes avancés pour la formation des pilotes. Aujourd'hui, tout a changé: il est l'industrie du divertissement pour financer les secteurs les plus avancés. Les raisons de cette tendance sont évidentes. L'industrie du divertissement peut éprouver plus rapidement de nouvelles applications à un public de jeunes, qui sont certainement les plus aptes à apprendre des techniques de pointe. Les jeux vidéo deviennent ainsi un instrument de test de masse des techniques d'interaction homme-machine, qui peut ensuite être réutilisés dans d'autres domaines, de distance au commerce électronique, par exemple.

La révolution des communications suivant le secteur industriel et modifie le corps de son être: dans les années quatre-vingt et nonante, aidant ainsi le passage d'une interface statique à l'information d'interface multimédia.

Le système multimédia intègre et souffre en même temps, les nouvelles acquisitions numériques, redéfinisse en vertu des possibilités techniques incroyables ouvertes. En fait, celles introduites par TIC« S ne peut généralement être considérés comme « nouveaux » médias: en dehors de l'Internet, vous êtes en présence d'une évolution et une redéfinition des anciens médias, en partie numérisé. Les médias « primitif » comme la presse, la radio, la télévision ne pouvait « être vu ». La diffusion ne permet pas d'interaction avec le contenu, ni encore moins avec leur source, de sorte qu'il ne peut offrir une utilisation passive de l'acte de communication. Il est impossible de produire de l'information, d'être dans les médias, d'interagir, être vu. L'architecture logique technique plusieurs à plusieurs Internet, ce qui permet à l'utilisateur d'avoir un contrôle total sur les communications électroniques, en le transformant d'un spectateur à l'information du fabricant. Internet répond aux besoins de visibilité des personnes, car elle leur donne l'autonomie complète de l'utilisation du milieu lui-même. Les nouvelles technologies de l'information et de la communication sont radicalement même la relation d'interaction entre le producteur et le consommateur. Ils ne constituent pas seulement comme des outils pour rationaliser certaines activités et presque immuables (procédures, flux de travail) mais représentent d'abord toutes les possibilités, ce qui permet des facteurs qui rendent possible le changement des méthodes traditionnelles de production, de distribution de s'organiser, d'échanger et de partager leurs connaissances, de coopérer: ce que Levy appelle l'intelligence collective en 1996.

La culture de la communication, bouleversé par l'apparition de l'Internet, est restructuré sur la base de trois éléments fondamentaux qui guident l'action sociale et la transmission des connaissances: le multimédia, l'hypertexte et l'interactivité. Le lien devient la métaphore de notre relation quotidienne avec la réalité. L'avènement de l'enregistrement des TIC ne change facteurs dans le processus de communication et de l'industrie culturelle. Digitalisation a émergé comme le système dominant, car d'une part rend la production industrielle plus économique de l'information et, en même temps, les marchés et élargit les limites de leur utilisation. L'ère analogique a été caractérisée par des espaces confinés dans les limites imposées par les médias individuels et les coûts de production et de transmission. Ce numérique découvre les marchés mondiaux et les atteint par des chemins rhizomatiques. Les anciens organismes d'information ont également transformées en versions numériques, allant de plus en concurrence avec le consommateur du Net Ils font face à la mondialisation et l'information de segmentation extrême. Réseaux satellites permettent une jouissance planétaire du même signal transmis, mais si nous regardons tels que la télévision numérique, il est immédiatement mis au courant de l'extrême thématisation du contenu a porté: la continuité et la discontinuité, l'unification et Ciblage, communautés virtuelles et pay-per-view isolationniste. Comme l'a déclaré Thompson (1998), tout en ne se référant explicitement aux nouvelles technologies, il est en présence d'un double phénomène: d'une part, on assiste à une mondialisation des télécommunications, l'autre à une localisation et l'individualisation de l'utilisation du contenu. Seule la discontinuité du numérique rend possible la création de mondes connectés: la continuité de la culture contemporaine découle de la transmission discrète de séquences informatiques binaires. Avec la naissance du grand réseau d'information de masse de fibre optique devient son contraire, à savoir des informations personnalisées.

L'étendue de l'interactivité et l'unification du milieu (PC-TV et PC), ou ce que par beaucoup est appelé la « convergence », compléter le tableau ensemble et de faire sauter le système des médias traditionnels . A l'intérieur de la société de connexion, l'homme numérique est capable de réunir différents codes et langues au sein de la même machine. Toujours la même chose, mais de temps en temps en mesure de mettre en œuvre les différentes fonctions et les services publics. La discontinuité de l'éthique doit être considérée comme une cause et une conséquence du lien de tous les jours que l'homme a adopté comme son mode de pensée. La traduction de cette nouvelle structure cognitive est la convergence des informations différentes sur les mêmes médias et le pouvoir des différents médias à travers les mêmes informations. Et si nous trouvons le réfrigérateur dans votre ordinateur et celui-ci dans la machine à laver, ainsi que l'industrie du téléphone dans l'une des chansons: le rêve fait chair Negroponte.

En fait, nous voyons déjà l'ampleur de l'interactivité et l'unification du milieu: les processus qui complètent le tableau et, ensemble, redéfinissent le système traditionnel des médias et des relations mutuelles que l'histoire des communications a connu des cycles. Nous sommes donc confrontés à un vrai mélange, beaucoup plus pertinent investit de plusieurs façons simultanément: les formes de communication, la langue, la mentalité actuelle. Une façon unique de fonctions sans fin, le concept du multimédia et hypermédia mieux étend également aux objets physiques, non seulement l'approche différente de l'organisation du contenu. Avec le mode de transmission analogique, différents types d'informations ne pouvaient pas voyager ensemble sur le même support et être décodé à partir du même terminal. Le signal radio d'un téléviseur était en fait tout à fait différent de celui d'un téléphone mobile et à traduire en images, besoin des circuits dédiés absents dans un téléphone.

L'adoption d'une représentation numérique au lieu de l'analogue, dans la vidéo, la musique, l'impression et les télécommunications en général, transforme potentiellement toute forme d'activité humaine symbolique dans le logiciel, et qui est des instructions modifiables pour décrire et surveiller la le comportement d'une machine. L'utilisateur du siècle, la soi-disant génération Napster, est la figure de leur culture et de leur interaction avec l'interface de réalité qui l'entoure et de l'hypertexte. Ce sont deux éléments qui ont radicalement changé la façon dont nous racontons à l'information en générant une participation continue du spectateur, de manière à rendre ce mot obsolète. Qui utilise l'Internet est un utilisateur de modifier l'énorme flux d'informations, en fonction de ses besoins, pour le simple fait que si le bâtiment en tirant à partir d'un référentiel commun et souvent gratuit.

Ceci est le résultat de la rencontre entre l'art et la science, la formation d'une nouvelle culture que le caractère populaire et est basé sur les conséquences d'une technologie qui a envahi notre environnement culturel et favorise un processus de développement automatisé soutenu par les mêmes innovations technologiques et par un désir permanent de changement. La techno-culture remplit en partie la mondialisation d'une nouvelle génération qui a permis l'accès aux biens technologiques de haute technologie, et par conséquent familier avec les outils utilisés, mais aussi un dialogue avec les tendances culturelles qui contribuent à développer une nouvelle dynamique dans le discours public. L'ère du numérique implique donc une perception différente des choses, une perception non-analogique qui est beaucoup plus proche de la sensation des arts traditionnels. Dans le paysage médiatique, dans le village planétaire, chaque communauté produit des signes et des significations, toutes les cultures qui respecte repose sur un ensemble d'expériences et de valeurs partagées. Grâce à l'utilisation des nouvelles technologies est de plus en plus vers une entreprise synthétique, synthétique dans différentes significations; premier cela signifie pour la vitesse de communication concise, l'accélération des échanges de communication. Mais nous avons l'intention d'informer la synthèse des différents dispositifs qui jusqu'à récemment étaient considérés comme absolument pas interférer entre eux et avec l'avènement des nouvelles technologies peut, en effet, d'interagir. Et, encore une fois, dans le sens des loisirs de synthèse d'images, essentiellement très proche des objets originaux: l'objet synthétique est opposé au réel ou vrai, le point d'objet et la reproduction de l'objet par rapport à l'ancienne reproduction des technologies traditionnelles (Bettetini, 1998).

Digitalisation crée un texte de dimensions dans le monde entier qui se développe sans couture (De Carli, 1997), Un hypertexte qui est né des liens qui se développent entre les différents textes inscrits dans le filet. L'Internet est le nouveau « sémiosphère » (Lotman, 1997), ou comme un film, une mince couche de signes et de codes linguistiques entoure la biosphère, la planète-terre «le tout enveloppé dans des réseaux informatiques ». Malgré ceux qui identifient une dégénérescence de « l'image de l'entreprise », l'Internet vit principalement de la communication écrite. Mais la communication dans la presse, « Galaxie Gutenberg », est faite de papier, l'encre, la physicalité, est immergé dans le monde matériel qui subit les lois de la création comme l'usure du temps. L'Internet ne sera certainement pas une intelligence artificielle qui a acquis sa propre personnalité; mais s'il est vrai que les bits, écrit Pancini, tend à devenir « presque un nouvel homme proche avenir Weltanschauung » émerge progressivement d'un autre monde, le fait de ce que appelle « non-Augé lieux » (1993), Qui, néanmoins dit sur leur surréalité par nos sens: sur l'écran d'ordinateur il y a un monde qui n'existe pas et qui, dans tous les cas que nous percevons comme réel.

Le mélange entre réel et virtuel, cependant, ne devrait pas induire en erreur: tant que vous êtes immergé dans cyberespace, est perceptible une réduction nette de distinction centre-périphérie, mais dès dépassé son seuil, nouveau entré dans le monde réel, vous réalisez les distances abyssales (et encore analogiques) qui séparent des sites de matériaux et immatériel.

L'idée fausse contemporaine réside dans la confusion entre deux mondes encore lointains: celui de la connaissance et de la programmation. Le numérique est configuré comme une possibilité de représentation de la réalité, mais comme un simple mode de transmission de contenu. Fournir un contenu est (et sera toujours) tâche homo analogicus.

dans son

Ces dernières années, en tandem avec l'avènement de la numérisation, les applications multimédias se sont propagées à devenir de plus en plus courante. L'une des caractéristiques multimédia est certainement l'utilisation de la voix et de l'audio numérique du son. Le plus grand obstacle est lié à numérise la grande taille des fichiers à produire, ce qui pose à l'industrie (en particulier ceux qui sont liés à l'Internet) le problème de la réduction de l'empreinte de données pour le double avantage de:

  • économie en termes d'empreinte mémoire;
  • économie en termes de temps de transfert sur le réseau.

Pour cette raison, quand on parle de numérise, nous devons aussi parler des techniques la compression des données. Les techniques de compression de données, quelle qu'en soit la nature, sont divisés en:

  • lossy: compresser les données à travers une forme de perte d'information qui exploite l'utilisation des données de redondance
  • sans perte: compresser des données par un processus sans perte d'information qui exploite la redondance dans le codage des données

Selon la technique de compression utilisé divers formats ont été créés. L 'MPEG Il est une norme commune pour l'encodage audio-vidéo.

paramètres clés

Le son est un signal continu, pour être stocké doit être échantillonné de manière à obtenir un signal numérique. Il y a trois paramètres qui caractérisent l'échantillonnage, ces paramètres affectent à la fois l'espace occupé à la fois la qualité sonore:

  • nombre de canaux
  • résolution
  • taux d'échantillonnage

Le nombre de canaux

Il y a deux façons de la distribution de canaux audio: Mono et Stéréo. Le mode Mono n'a qu'un seul canal quand le câble stéréo a deux séparés (gauche et droite). De toute évidence, un signal stéréo occupe, en termes d'espace, deux fois un signal mono. Dans les applications plus récentes le nombre de canaux a augmenté de façon spectaculaire, pensez à l'encadrement, mais comme toujours dans le calcul du problème réside dans le passage d'un à plusieurs, et beaucoup ne se soucient pas si ce sont deux, dix ou plus.

la résolution

Il représente le nombre de bits utilisés pour représenter des échantillons; en général, ils sont utilisés pour échantillonner 8 ou 16 bits: dans le premier cas, nous avons 256 valeurs possibles, relativement peu, offrent en effet une qualité inférieure à celle du son d'une bande, dans le second il y a environ 65000 valeurs.

Le taux d'échantillonnage

Le nombre d'échantillons par seconde; peut varier de 11 kHz se règle pour l'enregistrement vocal, 22 kHz adapté pour l'enregistrement d'un haut de la bande de 44 kHz pour un enregistrement de qualité CD. Ce paramètre mérite plus d'attention que les précédents, en effet, différents signaux analogiques peuvent donner lieu au même signal échantillonné.
Pour cette raison, il est possible que les différents signaux analogiques, si échantillonné avec une fréquence trop faible, ce qui donne lieu à la même audio numérique.

théorie d'échantillonnage, en particulier la Théorème d'échantillonnage de Nyquist-Shannon, nous fournissons la solution à ce problème, en fait, d'avoir une relation unique entre le signal original et le championnat est suffisant que la fréquence d'échantillonnage est deux fois la fréquence maximale du signal original. En bref, il peut être expliqué ainsi:
« Si vous prenez les échantillons très étroits entre eux (d'échantillonnage élevée), et la fréquence du signal varie lentement au fil du temps (la bande passante du signal est suffisamment étroit) peut rejoindre les différents points identifiés à partir des échantillons sans affecter la qualité du son d'origine ". le célèbre bitrate, Il n'y a rien de plus que le produit de trois facteurs viennent d'être mentionnés (nombre de canaux, la fréquence et la résolution), ce qui est rien de plus que le nombre de bits nécessaires pour reproduire un second son et est mesuré en bits / s. Exemple: Une minute de son stéréo de qualité CD occupe environ 10 Mo (2 canaux * 2 octets par échantillon * 44,1 kHz * 60 s) pendant la lecture nécessite un 1,4 Mbit / s (2 canaux * bitrate 16 bits pour champion * 44,1 kHz).

Les techniques de représentation

Actuellement, il existe plusieurs façons de représenter des données audio; Ce qui suit décrit brièvement certains formats.

WAV, AIFF
Ils sont les formats les plus simples créés respectivement Microsoft-IBM et pomme. Ils sont basés sur la technique de modulation à impulsions de codage numérique (Pulse Code Modulation ou PCM), sont à savoir un son d'enregistrement fidèle au format numérique. Les deux occupent beaucoup de mémoire, 10 Mo par minute, et sont utilisés au niveau professionnel.

Midi
Ce format a été établi comme la norme pour les instruments de musique numériques. Un fichier .midi Il peut être considéré comme un score joué par un séquenceur, En fait, dans son intérieur il contient une séquence de commandes qui indiquent que note obtenir un son d'un instrument avec lequel intensité et comment temps. Il en résulte d'importantes économies d'espace: une pièce entière de la musique qui dure plusieurs minutes, peut occuper quelques dizaines koctets, En fait, chaque événement MIDI unique occupe seulement 11 octets.

Streaming audio: RAM, RM, ASF, ASX
la le streaming est le transfert en réseau données audiovisuelles en temps réel; tout cela sans temps d'attente résultant de télécharger fichier complet sur 'disque dur ordinateur. avec la le streaming, En fait, il ne télécharge pas l'ensemble fichier audio avant d'autoriser l'écoute, mais reproduction commence pour chaque bloc de deux secondes d'écoute; En attendant, il est téléchargé la prochaine. Il peut y avoir des interruptions temporaires de la reproduction, si le trafic sur le réseau semble encombré. Les deux principales technologies audio le streaming Réel sont utilisés (par Real Player), Et Windows Media (par Windows Media Player). La technologie de le streaming Audio a permis, par exemple, les principales stations de radio à présenter sur leurs sites Web de leurs programmes diffusés sur les ondes.

DAB: Digital Audio Broadcasting
Il est un système de transmission signal radio conduit numérique éther. DAB est basé sur une algorithme de compression comme son MP3 mais il a évolué pour transmettre le bouquet de paquets qui permettent à l'émetteur de présenter plus d'une version de ses programmes. La qualité de la transmission est variable en fonction de la largeur de bande occupée. Lors de la transmission, les codes sont utilisés contrôle de redondance cyclique (CRC) pour corriger les erreurs et de maintenir la transmission à un niveau élevé de qualité même dans l'état des réceptions non optimales.

Dans les images fixes

A 'image Numérique est un ensemble ordonné de nombres entiers, obtenu à partir de balayage image analogique (source), en utilisant un équipement spécial appelé scanner (Numérisation de l'image analogique) ou par l'utilisation de caméras numériques qui produisent directement l'image numérique de la scène de prise de vue.

Chaque entier représente l'ordre 'intensité lumineuse moyenne (niveaux de gris) Dans l'image source correspondant aréole, ladite pixel (Élément d'image). L'aréole est rectangulaire et caractérisée par deux dimensions dX (horizontal) et Dy (vertical), lesdites étapes d'échantillonnage, de numérisation pendant que la réciproque (1/1 et dX / dY) sont appelés Fréquence d'échantillonnage.

L'ensemble ordonné d'échantillons prend l'aspect d'une matrice numérique ou un tableau constitué d'un certain nombre de lignes (M) et colonnes (N). Chaque échantillon ou d'un élément table est localisée par son numéro de ligne et de colonne, en supposant que le premier pixel en haut à gauche constitue l'origine.

La capacité de chaque système de numérisation de fonctionner plus ou moins fines que l'on appelle des mesures résolution. Il est divisé en géométrique et radiométrique: Résolution radiométrique: est la différence minimale luminosité détectable et est également connu sous le nom profondeur de couleur en bit (0 -> noir, L-1 -> blanc) Et chaque système d'acquisition utilise une résolution différente entre:

  1. noir et blanc
    1. 1 bit: 2 valeurs possibles (0,1)
  2. à des niveaux de gris
    1. 8 bits: Valeur normale (256 niveaux de gris possibles)
    2. 10, 11, 12, 16 ... des bits: pour des applications sophistiquées
  3. couleur
    1. 24 bits
    2. 30 bits
    3. 36 bits
    4. 48 bits

Résolution géométrique: elle est liée à 'amplitude des aréoles, les mineurs sont les étapes d'échantillonnage (dx et dy), plus la résolution la géométrie du dispositif. La résolution géométrique est mesurée en points par pouce ou DPI (points par pouce).

Les images numériques peuvent être:

  1. raster ou bitmap (matrices de pixels)
    1. Images binaires
    2. images en niveaux de gris
    3. Les images en couleur avec la palette (ou CLUT couleur Look-Up Table)
    4. Les images RVB (couleur vraie, chaque matrice R, G ou B est une image à niveaux de gris)
  2. vecteur
    1. modules définis par des images graphiques (points, segments, polygones, polyèdres ...)
  3. bitmap mixte + vecteur

Pour chaque type d'image, vous devez faire une discussion séparée sur rétention et occupé qualité / espace; par exemple, dans un fichier bitmap contient des informations telles que: le type d'image, le nombre de lignes et de colonnes, profondeur des pixels (résolution radiométrique), palette la couleur (Le cas échéant), les valeurs de pixels et des informations supplémentaires telles que le date de création, la les coordonnées d'origine, résolutions géométriques, etc.

Des techniques pour mémoriser des valeurs de pixel:

  1. sans compression (Le nombre de valeurs mémorisées est M x N et il n'y a pas de gain de place)
  2. Avec la compression (le nombre de valeurs mémorisées est inférieur à M x N avec un gain proportionnel au degré de compression Y = octets d'origine / octet après compression)
    1. sans perte d'information (sans perte)
    2. lossy (lossy)

Les principales méthodes de compression sans perte ils sont les suivants:

  • encodage RLE (RLE): compression de séquences de pixels identiques consécutives
  • Lempel-Ziv-Welch (LZW): toute séquence significative de pixels est isolé et introduit dans un dictionnaire données (compris dans fichier) Et remplacé par son numéro dans le dictionnaire

La méthode de compression le plus populaire et utilisé pour la perte d'informations, même si ce n'est pas le plus efficace est le JPEG (Joint Photographic Expert Group) qui compresse les données séparément luminance et ceux de chromaticité avec un rapport de compression commandé par l'utilisateur via le pourcentage de perte d'information.

chaque format de fichier et chaque procédé de compression utilisé pour des images, correspondant à une autre extension du nom de fichier en tant que: BMP (Bitmap), GIF (Graphics Interchange Format) JPEG, MAC (Mac Paint), PCD http://www.r4-dsi.it (Kodak Photo CD) PCX (PC Paintbrush File Format), PNG (Portable Network Graphic) PSD (Adobe Photoshop format d'image), l'image PLAQUE (Targa File) TIFF (Tag Image File Format) RAW Format (mémorisation simple de la ligne par matrice de pixels de ligne).

Dans les images animées

Une vidéo ou un film est composé d'une série d'images, images appelées, qui se suivent en séquence rapide.

  • I-Frames (Cadres de type I, également appelé Intra-cadres ou Cadres-clés ): Ils sont codés en utilisant les informations contenues dans cadre de même, ne contiennent pas de référence ou des informations sur les trames adjacentes sont comprimés et de manière identique à une image unique (par exemple JPEG.); ils sont insérés, en général quand il y a un brusque changement entre deux images successives, mais ils sont souvent liés par un intervalle maximum entre eux (intervalle I-Frame maximum) qui correspond généralement à 10/12 secondes (250/300 images) , utile pour la recherche d'une scène particulière.
  • P-Frames (trames de type p, Cadres prédits, également appelé Delta-Cadres ou Inter-Cadres) Sont codés en utilisant les informations obtenues sur la base de la trame précédente, ceci est de type I ou P, et par conséquent, à l'aide des similarités entre des trames successives, sont plus petits que la I-Frames; à partir de l'examen que pour chaque seconde de 25 successifs vidéo cadres, est beaucoup plus efficace pour stocker pas les cadres individuels indépendamment, mais seulement des différences minimes entre eux, une opération en toute simplicité en utilisant ce type de cadres, avec le résultat de stockage d'un nombre de bits beaucoup plus bas. Ces trames contiennent donc les informations de position (X «Y ») dans la trame en cours dans lequel un bloc qui avait des coordonnées (X, Y) est déplacé à la précédente (Estimation de mouvement / compensation).
  • B-Frames (codage bi-directionnel): Avec ce type de recherche de cadres de mouvement (Estimation de mouvement / compensation) Est effectuée à la fois sur la trame précédente est la suivante, en modifiant l'ordre dans lequel les trames sont stockées dans le fichier vidéo compressé de la trame courante avec la suivante (par exemple I B B P -> I P B B).

Un concept important est de bitrate. Le débit binaire (taux de bit) est la quantité de bits qui sont transmis dans chaque seconde et est mesurée en bps (bits par seconde); Plus le débit est élevé, plus la quantité de bits réservé à chaque trame, et par conséquent le plus grand sera le nombre d'informations qui peuvent être stockées, puis la qualité de trame unique.

En ce qui concerne la compression vidéo, il se comporte de façon similaire à la compression d'une image unique, multipliée par le nombre d'images qui suivent, en utilisant correctement les trois types de cadres et les règles de codage/ Décodage.

Pour la compression sont utilisés lesdits éléments codec vidéo (Coder/décodeur), Les programmes se composent d'un codeur, qui vise à compresser une séquence d'images (vidéo) pour la stocker dans un fichier et un décodeur, vous devez décompresser la séquence et il peut être affiché de nouveau.

Les techniques de compression vidéo peuvent être divisés en deux grandes catégories:

  • LosslessLa compression est un processus parfaitement réversible qui se produit sans perte l'information et où la vidéo et la vidéo non compressé d'origine sont identiques dans les moindres détails
  • lossy: Techniques de compression non réversible, dans lequel compressées et décompressées vidéo ne sont plus identiques au moment de la compression ont été volontairement éliminé certaines informations dans le but d'occuper les petits espaces; ces techniques sont les plus répandues et bien connues, telles que encodages MPEG (1, 2 et 4), DivX, Xvid, etc ..

olfaction

Les dernières études dans le domaine de la mesure des odeurs ont apporté la numérisation et la création d'un nez électronique. On parle du système olfactif artificiel (SOA).

Articles connexes

D'autres projets

liens externes

autorités de contrôle GND: (DE4123065-6