Informática, pregunta formulada por andrade1804evelin, hace 3 meses

5 Diferencias entre rodificacion y Б decodificacion​

Respuestas a la pregunta

Contestado por lucir2909
1

Definición

Para poder entender qué es la codificación y la decodificación en la rama de la informática y la tecnología, debemos comprender primero su uso en las comunicaciones. A fin de cuentas, estas las acepciones están íntimamente relacionadas.

¿Qué es la codificación informática?

La codificación informática se encarga de crear una secuencia de caracteres en un lenguaje especial para poder manejar, clasificar, estudiar, almacenar o transmitir la información.

Los tipos de lenguajes y códigos comúnmente utilizados en la codificación computacional, son códigos binarios, un lenguaje que usa dos caracteres específicos: 0 y 1. Por supuesto, hay muchos otros que combinan secuencias cíclicas o continuas, símbolos, letras, entre otros:

MIME. Multipurpose Internet Mail Extensions. Convierte los datos de un correo electrónico -texto, archivos adjuntos, PDFs e imágenes- en una secuencia de caracteres.

ASCII. American Standard Code for Information Interchange. Lenguaje de codificación que usan los ordenadores para la transferencia, almacenamiento o uso de los datos.

BinHex. Codificación binaria de archivos de Macintosh. Usa cadenas de 8 bits con caracteres ASCII para enviar por la red un documento, imagen o adjunto de correo electrónico.

EBCDIC. Extended Binary Coded Decimal Interchange Code. Creado por IBM. Utiliza números y letras para la ejecución de programas o de un sistema operativo.

Unicode. Unicode Worldwide Character Standard. Procesa, reproduce e intercambia la información en distintos lenguajes. Es una de las formas de codificación más universales y clásicas que existen, y se utiliza en distintos softwares informáticos, Java, XML, etc.

En palabras simples, la codificación transforma la información. Cuando se convierte una imagen PNG a un formato JPEG o en el momento en el que una serie de “ceros” y “unos” se unen para convertirse en un videojuego de ordenador; se está codificando.

¿Qué es la decodificación informática?

La decodificación informática, más que un antónimo de la codificación, es un proceso complementario. Cuando un sistema está programado para decodificar, lo que hace es convertir un texto plano -como ASCII- en un archivo que puede verse, escucharse, analizarse o reproducirse.

Veámoslo en un ejemplo. Supón que quieres enviarle un correo electrónico a alguien de tu trabajo. Al hacerlo, escribes un mensaje y adjuntas tres archivos. Un documento editable en formato DOC, un informe para la impresión en formato PDF y una imagen en formato JPEG.

Al hacer clic en “enviar”, el sistema codifica toda la información en un lenguaje mucho más simple, es decir, un código binario. Esta información viaja por la red como si fuera una cadena de caracteres. Al llegar al destinatario, el sistema la decodifica para que este pueda verla en su estado original, es decir, que se pueda leer el texto y descargar los archivos adjuntos.

Lo mismo sucede en la decodificación tecnológica, un campo asociado con las telecomunicaciones. La señal que recibe un decodificador de televisión por cable transmite un archivo multimedia a la pantalla que viaja a través de una señal codificada.

Diferencias

Codificar es la creación del código y decodificar se hace cuando queremos invertir este proceso

Codificar: es inventar un código o conjunto de acertijos que permitan que algo funcione o que alguien no pueda acceder a menos que conozca el código. Mientras que decodificar: es el proceso inverso en el cual se pretender acceder al mismo ya sea conociendo el código o por otros medios.

Otras preguntas