¿QUE ES LA COMPUTACION? (CONCEPTO TEORICO)
BIENVENIDOS A COMPUTERSILVER
¿Qué es computación?
El concepto computación proviene del latín computa tío, esta hace referencia al cómputo, como cuenta. La computación es la ciencia encargada de estudiar los sistemas, más precisamente computadoras, que automáticamente gestionan información.
Dentro de las ciencias de la computación pueden ser distinguidas distintas áreas de estudio:
Estructura de datos y Algoritmos: Un de estudio
importante en la computación es el de la estructura de los datos y los
algoritmos. Para ello estos dos últimos son analizados para poder solucionar
los problemas precisos, En esta área el análisis matemático resulta elemental.
Sistemas operativos: Los sistemas operativos también
son consideradas una de las áreas más importantes. Son creados y actualizados
continuamente para perfeccionar el funcionamiento, mejorando fallas y
adaptándolos a las nuevas necesidades del mercado.
Arquitectura de computadoras: En lo que respecta al
área de arquitectura de la computadora se crean nuevas computadoras, más
Arquitectura de computadoras: En lo que respecta al área
de arquitectura de la computadora se crean nuevas computadoras, más
veloces y con mejores capacidades. La atención suele centrarse en ciertos
componentes, como las memorias, CPU y periféricos (de entrada y salida).
•
Lenguajes de programación: Otra
área elemental en el estudio de la computación es el de
los lenguajes de programación. El objetivo es crear nuevos lenguajes
de programación, que sean más eficaces y veloces, con funcionalidades y
capacidades superadoras.
Historia de la computación
Si bien la utilización de las computadoras y su estudio ha
sido masificada en las últimas décadas, la ciencias de la computación tienen
una larga historia. Ya desde las antiguas civilizaciones, como los romanos y
griegos utilizaban instrumentos mecánicos para contabilizar.
Sin embargo, la primera
computadora fue creada durante el siglo XIX, esta, recibió el nombre de
máquina analítica. Dicha máquina surgió con el objetivo de elaborar tablas
matemáticas. Algunos años después el gobierno inglés las utilizaría para
realizar cuentas. A fines de la década de los cuarenta del siglo XX se creó en
la Universidad de Harvard la computadora llamada
Mark I. Los intentos seguirían a lo
largo de Estados Unidos con el apoyo del gobierno.
Cuando la cantidad de diseños comenzó a aumentar comenzaron a ser
clasificadas por sus características en generaciones:
•
Primera generación: A lo largo de los años cincuenta, se caracterizaban porque
sus programaciones eran mediante un lenguaje de máquinas y eran diseñadas con
tubos de vacío. Además, ocupaban habitaciones enteras por su gran tamaño y
resultaban demasiado caras. Al igual que en la segunda generación la
información que ingresaba a la maquina era mediante tarjetas perforadas.
•
Segunda
generación: Esta
generación abarcó la década de los sesenta. Durante esta generación, las
computadoras podían procesar más datos y eran un poco más pequeñas. Fue durante
estos años que comenzaron a surgir las comunicaciones entre máquinas. A su vez
surgieron las
primeras computadoras personales, de todos modos, eran muy complejas de utilizarlas que era necesario conocer
la programación.
•
Tercera
generación: Fue durante
la tercera generación cuando la producción comenzó a ser en serie.
Las computadoras podían ser manejadas por medio de los sistemas operativos.
Muchas de las técnicas utilizadas en esos años se convirtieron en estándares
que hasta el día de hoy son utilizados.
•
Cuarta
generación:
La cuarta generación es reconocida por la aparición de los
microchips. Esto significó un hito en las ciencias de la computación. Los
circuitos no solo comenzaron a ser mucho más pequeños y veloces, si no que a su
vez resultaban mucho más económicos. Es por ello que la producción aumentó de
manera notable y muchas más personas tuvieron acceso a las mismas. Esta
generación es también conocida como la
•
Revolución de la Computación.
Ampliar esta sección:
El impacto en la vida cotidiana
Actualmente las tecnologías computacionales han permitido la
reelaboración de los conceptos tradicionales de las actividades, de este modo
las tecnologías empezaron a transformar la vida de las personas profundamente y
en todas sus actividades:
•
El correo tradicional fue reemplazado
por el envío y la recepción de correo electrónico.
•
El arte del dibujante sufrió la
modificación y devino en la producción de dibujos digitales.
•
La ediciLa impresión de libros se
transformó en la publicación y edición digital en soportes informáticos que son
a la vez comercializados vía Internet, entre muchos otros procesos.
Es decir, el alcance de la computación es incalculable, la
modificación en los procesos de las actividades ya se ha producido y continúa
su avance de forma inusitada, transformando constantemente nuestras vidas y
originando nuevos requerimientos personales que exigen que estemos al tanto de
estos nuevos recursos, tanto para conocer y saber sobre su utilización, cuanto
para saber aprovecharlos en pos de un mejor bienestar personal y social.
CONCEPTOS RELACIONADOS
programacion 2.-dato e informática
3.-informatica 4.-el sistema
operativo
5.-harware 6.-CPU
7.-algoritmo informática 8.-procesador de texto
9.-ciencias formales 10.-software
11.-base de datos 12.-ofimática
¿Qué es
programación?
La programación hace referencia al efecto de
programar, es decir, de organizar una secuencia de pasos ordenados a seguir
para hacer cierta cosa. Este término puede utilizarse en muchos contextos, por
ejemplo: “Vamos a programar una salida para este fin de semana largo”
o “La programación de ese canal de televisión está bien lograda”.
Es común hablar de programación de por ejemplo: una
salida, de las vacaciones o de un recorrido por una ciudad cuando queremos
referirnos a armar itinerarios de lugares para recorrer, conocer o gente con la
que encontrarnos; así también se utiliza mucho el término para referirse a la
lista de programas con sus días y horarios de emisión de los canales de
televisión, la lista de películas de un cine o las obras de un teatro.
Programación en informática
En el ámbito de la informática,
la programación refiere a la acción de crear programas o aplicaciones, a través
del desarrollo de un código fuente, el cual se basa en el conjunto de
instrucciones que sigue el ordenador para ejecutar un programa
Estas instrucciones se encuentran escritas en lenguaje de
programación que luego son traducidas a un lenguaje de máquina, que puede ser
interpretado y ejecutado por el hardware del equipo (parte física del equipo).
Dicho código fuente es creado, diseñado, codificado, mantenido y depurado a
través de la programación, donde el principal objetivo a lograr es el
desarrollo de sistemas que sean eficaces, accesibles y agradables o amigables
para el usuario.
Los
programas informáticos suelen seguir algoritmos, que son el conjunto de
instrucciones que se encuentran organizadas y relacionadas entre sí de cierta
manera y que permiten llegar a la solución de un problema, y que a su vez
contienen módulos más pequeños que le aportan detalles más finos. Todo esto a
escala de gran complejidad forma parte de la programación informática que
permite trabajar al software de los equipos de computación y la cual suele ser llevada a cabo por técnicos o
ingenieros en sistemas.
Qué es un dato?
En informática, los datos son representaciones simbólicas (vale
decir: numéricas, alfabéticas, algorítmicas, etc.) de un determinado atributo o
variable cualitativa o cuantitativa, o sea: la descripción codificada de un
hecho empírico, un suceso, una entidad.
Los datos son, así, la información (valores o referentes) que recibe el computador a través de distintos medios, y que es manipulada mediante el procesamiento de los algoritmos de programación. Su contenido puede ser prácticamente cualquiera: estadísticas, números, descriptores, que por separado no tienen relevancia para los usuarios del sistema, pero que en conjunto pueden ser interpretados para obtener una información completa y específica.
En los comienzos del desarrollo de la programación informática, se
utilizaban lenguajes máquina muy básicos y limitados como el sistema binario
(uso de los números 0 y 1 en distintas combinaciones); más tarde comenzaron a
surgir lenguajes que hacían uso de códigos de palabras, y luego, conjuntos de
algoritmos mucho más complejos que se denominaron lenguajes de alto nivel.
DATO EN INFORMÁTICA
En los lenguajes de programación,
empleados para crear y organizar los algoritmos que todo sistema informático o
computacional persigue, los datos son
la expresión de las características puntuales de las entidades sobre las cuales
operan dichos algoritmos. Es decir, son el input inicial, a partir del cual
puede procesarse y componerse la información.
Son particularmente importantes para la estructura de datos, rama
de la computación que estudia la forma particular de almacenaje de la
información en porciones mínimas para lograr una posterior recuperación
eficiente.
Tipos de datos
En la informática, cuando hablamos de tipos de datos (o
simplemente “tipo”) nos referimos a un atributo que se indica al computador
respecto a la naturaleza de los datos que se dispone a procesar. Esto incluye
delimitar o restringir los datos, definir los valores que pueden tomar, qué
operaciones se puede realizar con ellos, etc.
Algunos tipos de datos son:
•
Caracteres.
Dígitos individuales que se pueden representar mediante datos numéricos (0-9),
letras (a-z) u otros símbolos.
•
Caracteres unicode. Unicode es un estándar de codificación que permite representar
más eficazmente los datos, permitiendo así hasta 65535 caracteres diferentes.
•
Numéricos.
Pueden ser números reales o enteros, dependiendo de lo necesario.
•
Booleanos.
Representan valores lógicos (verdadero o falso).
Ejemplos de datos
Algunos ejemplos de datos informáticos pueden ser los que componen
la jerarquía de los datos informáticos, en una pirámide ascendente de lo más
básico a lo más complejo:
1.
Bits. Cada entrada
del lenguaje de código binario, es decir, 1 o 0.
2.
Caracteres.
Números, letras o caracteres especiales, formados cada uno a partir de una
combinación de bits. Por ejemplo: el número decimal 99 corresponde a 1100011 en
binario.
3.
Campos.
Conjunto ordenado de caracteres, por ejemplo una palabra, como el nombre y/o el
apellido del usuario que llena un formulario en línea.
4.
Registros.
Conjuntos de campos ordenados, como los necesarios para iniciar sesión en
nuestro correo electrónico.
5.
Archivos.
Conjuntos ordenados de registros, como las cookies que las páginas web guardan
en nuestro sistema y contienen la información de las sesiones que hemos
iniciado.
Información (en informática)
En informática se entiende por información al conjunto de datos
ordenados, secuenciados, procesados por un algoritmo de programación, que
permiten recomponer un referente, como un hecho concreto o algún sentido real.
La recuperación de la información a partir de los paquetes o
conjuntos de datos es, así, el objetivo final de la computación, dado que los
sistemas informáticos codifican y representan la información a través de
distintos mecanismos y lenguajes que les permiten comunicarse entre sí de
manera veloz y eficiente.
¿Qué es dato?
Un dato es la
representación de una variable que puede ser cuantitativa o cualitativa,
indican un valor que se le asigna a las cosas. Los datos son información. Los
datos describen en su conjunto nos hablan de hechos empíricos. Un dato por sí
solo no puede demostrar demasiado, siempre se evalúa el conjunto para poder
examinar los resultados. Para examinarlos, primero hay que organizarlos o
tabularlos.
Los datos pueden ser generados de forma automática y acumulativa con diferentes tipos de programas informáticos o bien tienen que ser siempre ingresados para formar una base de datos.
Los datos que se
ingresan en una base pueden ser de diversos tipos, según la información que se
acumule en dicha base. Por ejemplo puede ser una base de datos de información
personal, entonces los datos serán numéricos, alfabéticos y alfa-numéricos.
En informática, en
programación, un dato es la expresión general que va a describir aquellas
características de la entidad sobre la que opera. En la estructura de
datos, un dato es la más mínima parte de la información.
Dentro de los archivos también encontramos datos. Estos datos consisten generalmente en paquetes más pequeños de otros datos, que son llamados registros. Estos datos están reunidos por características iguales o similares.
Como ya dijimos, hay dos tipos de datos:
•
Cualitativos: Son aquellos que responden a la pregunta ¿cuál? O
¿cuáles? Aquí hay datos como el color, los sentimientos, etcétera.
•
Cuantitativos: Son aquellos datos que siempre están referidos a los
números. Por ejemplo, precio, altura, edad, etcétera.
Ver, además: Dato en informática
BASE DE DATOS
¿Qué es una base
de datos?
Se llama base de datos, o también banco de datos, a un conjunto de información perteneciente a un mismo contexto, ordenada de modo sistemático para su posterior recuperación, análisis y/o transmisión. Existen actualmente muchas formas de bases de datos, que van desde una biblioteca hasta los vastos conjuntos de datos de usuarios de una empresa de telecomunicaciones.
Las bases de datos son el producto de la necesidad humana de almacenar la información, es decir, de preservarla contra el tiempo y el deterioro, para poder acudir a ella posteriormente. En ese sentido, la aparición de la electrónica y la computación brindó el elemento digital indispensable para almacenar enormes cantidades de datos en espacios físicos limitados, gracias a su conversión en señales eléctricas o magnéticas.
El manejo de las bases de datos se
lleva mediante sistemas de gestión (llamados DBMS por
sus siglas en inglés: Database Management Systems o
Sistemas de Gestión de Bases de Datos), actualmente digitales y automatizados,
que permiten el almacenamiento ordenado y la rápida recuperación de la
información. En esta tecnología se halla el principio mismo de la informática.
En la conformación de una base de
datos se pueden seguir diferentes modelos y paradigmas, cada uno
dotado de características, ventajas y dificultades, haciendo énfasis en su
estructura organizacional, su jerarquía, su capacidad de transmisión o de
interrelación, etc. Esto se conoce como modelos de base de datos y
permite el diseño y la implementación de algoritmos y otros mecanismos lógicos de gestión, según sea el
caso específico.
Tipos de bases de datos
Existen diferentes clasificaciones de las bases de datos,
atendiendo a características puntuales:
Según su variabilidad. Conforme a los procesos de recuperación y preservación de
los datos, podemos hablar de:
•
Bases de datos estáticas. Típicas de la inteligencia empresarial y otras áreas de
análisis histórico, son bases de datos de sólo lectura, de las cuales se puede
extraer información, pero no modificar la ya existente.
•
Bases de datos dinámicas. Aparte de las operaciones básicas de consulta, estas
bases de datos manejan procesos de actualización, reorganización, añadidura y
borrado de información.
Según su contenido. De acuerdo a la naturaleza de la información contenida,
pueden ser:
•
Bibliográficas.
Contienen diverso material de lectura (libros, revistas, etc.) ordenado a
partir de información clave como son los datos del autor, del editor, del año
de aparición, del área temática o del título del libro, entre otras muchas
posibilidades.
•
De texto completo.
Se manejan con textos históricos o documentales, cuya preservación debe ser a
todo nivel y se consideran fuentes primarias.
•
Directorios.
Listados enormes de datos personalizados o de direcciones de correo
electrónico, números telefónicos, etc. Las empresas de servicios manejan
enormes directorios clientelares, por ejemplo.
•
Especializadas.
Bases de datos de información hiperespecializada o técnica, pensadas a partir
de las necesidades puntuales de un público determinado que consume dicha
información.
Ejemplos de base de datos
Algunos ejemplos posibles de bases de datos a lo largo de la
historia son:
•
Guías telefónicas.
Aunque en desuso, estos voluminosos libros solían contener miles de números
telefónicos asignados a hogares, empresas y particulares, para permitir al
usuario dar con el que necesitaba. Eran engorrosos, pesados, pero completos.
•
Archivos personales. El conjunto de los escritos de vida de un autor, investigador o
intelectual a menudo son preservados en un archivo, que se organiza en base a
la preservación y reproducción de los originales, permitiendo su consulta sin
poner en riesgo el documento original.
•
Bibliotecas públicas. El perfecto ejemplo de bases de datos,
pues contienen miles o cientos de miles de registros pertenecientes a cada
título de libro disponible para su préstamo, ya sea en sala o circulante, y del
que puede haber más de un mismo ejemplar en el depósito. Los bibliotecólogos se
encargan de diseñar estos sistemas y velar por su funcionamiento.
•
Registros de transacciones. Las operaciones realizadas con una tarjeta de crédito,
así como las llamadas realizadas con un celular, u otro tipo de transacciones
comerciales cotidianas, generan todas un conjunto de registros que van a dar a
una base de datos de la empresa.
•
Historial médico.
Cada vez que acudimos al doctor o a un hospital, se actualiza la información
respecto a nuestra salud, al tratamiento recibido y demás detalles médicos en
un archivo que lleva registro de nuestra historia médica, en caso de que a
futuro se requiera conocer datos específicos, como operaciones o tratamientos
recibidos.
ALGORITMO EN INFORMÁTICA
¿Qué es un algoritmo?
En informática, un algoritmo es una secuencia de instrucciones secuenciales, gracias al cual pueden llevarse a cabo ciertos procesos y darse respuesta a determinadas necesidades o decisiones. Se trata de conjuntos ordenados y finitos de pasos, que nos permiten resolver un problema o tomar una decisión.
Los algoritmos no
tienen que ver con los lenguajes de programación, dado que un mismo algoritmo o diagrama de flujo puede
representarse en diversos lenguajes de programación, es decir, se trata de un
ordenamiento previo a la programación.
Visto así, un programa no es otra cosa que una serie compleja de
algoritmos ordenados y codificados mediante un lenguaje de programación para su
posterior ejecución en un computador.
Los algoritmos también
son frecuentes en la matemática y la lógica, y
son la base de la fabricación de manuales de usuario, folletos de
instrucciones, etc. Su nombre proviene del latín algoritmus y
éste apellido del matemático persa Al-Juarismi. Uno de los algoritmos más
conocidos de la matemática es el atribuido a Euclides, para obtener el máximo
común divisor de dos enteros positivos, o el llamado “método de Gauss” para
resolver sistemas de ecuaciones lineales.
Partes de un algoritmo
Todo algoritmo debe constar de las siguientes partes:
•
Input o entrada.
El ingreso de los datos que el algoritmo necesita para operar.
•
Proceso.
Se trata de la operación lógica formal que el algoritmo emprenderá con lo
recibido del input.
•
Output o salida.
Los resultados obtenidos del proceso sobre el input, una vez terminada la
ejecución del algoritmo.
¿Para qué sirve un algoritmo?
Dicho muy llanamente, un algoritmo sirve para resolver paso a paso
un problema. Se trata de una serie de instrucciones ordenadas y secuenciadas
para guiar un proceso determinado.
En las Ciencias de la computación, no obstante, los
algoritmos constituyen el esqueleto de los procesos que luego se codificarán y
programarán para que sean realizados por el computador.
Tipos de algoritmos
Existen cuatro tipos de algoritmos en informática:
•
Algoritmos computacionales. Un algoritmo cuya resolución depende del cálculo, y que
puede ser desarrollado por una calculadora o computadora sin dificultades.
•
Algoritmos no computacionales. Aquellos que no requieren de los procesos de un
computador para resolverse, o cuyos pasos son exclusivos para la resolución por
parte de un ser humano.
•
Algoritmos cualitativos. Se trata de un algoritmo en cuya resolución no
intervienen cálculos numéricos, sino secuencias lógicas y/o formales.
•
Algoritmos cuantitativos. Todo lo contrario, es un algoritmo que depende de
cálculos matemáticos para dar con su resolución.
Características de los algoritmos
Los algoritmos presentan las siguientes características:
•
Secuenciales.
Los algoritmos operan en secuencia, debe procesarse uno a la vez.
•
Precisos.
Los algoritmos han de ser precisos en su abordaje del tema, es decir, no pueden
ser ambiguos o subjetivos.
•
Ordenados.
Los algoritmos se deben establecer en la secuencia precisa y exacta para que su
lectura tenga sentido y se resuelva el problema.
•
Finitos.
Toda secuencia de algoritmos ha de tener un fin determinado, no puede
prolongarse hasta el infinito.
•
Concretos.
Todo algoritmo debe ofrecer un resultado en base a las funciones que cumple.
•
Definidos.
Un mismo algoritmo ante los mismos elementos de entrada (input) debe dar
siempre los mismos resultados.
Ejemplos de algoritmos
Un par de ejemplos posibles de algoritmo son:
Algoritmo para elegir unos zapatos de
fiesta:
1.
INICIO
2.
Entrar a la tienda y buscar la sección
de zapatos de caballero.
3.
Tomar un par de zapatos.
1.
¿Son zapatos de fiesta?
SI: (ir al paso 5) – NO: (volver al paso 3)
5.
¿Hay de la talla adecuada?
SI: (ir al paso 6) – NO: (volver al paso 3)
6.
¿El precio es pagable?
SI: (ir al paso 7) – NO: (volver al paso 3)
7.
Comprar el par de zapatos elegido.
8.
FIN
Algoritmo para calcular el área de un
triángulo rectángulo:
•
INICIO
•
Hallar las medidas de la base (b) y
altura (h)
•
Multiplicar: base por altura (b x
h)
•
Dividir entre 2 el resultado (b x h) /
2
•
FIN
PROGRAMACIÓN
La programación hace referencia
al efecto de programar, es decir, de organizar una secuencia de pasos ordenados
a seguir para hacer cierta cosa. Este término puede utilizarse en muchos
contextos, por ejemplo: “Vamos a programar una salida para este fin de
semana largo” o “La programación de ese canal de televisión está
bien lograda”.
Es común hablar de programación de por ejemplo: una salida, de las
vacaciones o de un recorrido por una ciudad cuando queremos referirnos a armar
itinerarios de lugares para recorrer, conocer o gente con la que encontrarnos;
así también se utiliza mucho el término para referirse a la lista de programas
con sus días y horarios de emisión de los canales de televisión, la lista de
películas de un cine o las obras de un teatro.
Programación en informática
En el ámbito de la informática,
la programación refiere a la acción de crear programas o aplicaciones, a través
del desarrollo de un código fuente, el cual se basa en el conjunto de
instrucciones que sigue el ordenador para ejecutar un programa.
Estas instrucciones se encuentran escritas en lenguaje de programación que luego son traducidas a un lenguaje de máquina, que puede ser interpretado y ejecutado por el hardware del equipo (parte física del equipo). Dicho código fuente es creado, diseñado, codificado, mantenido y depurado a través de la programación, donde el principal objetivo a lograr es el desarrollo de sistemas que sean eficaces, accesibles y agradables o amigables para el usuario.
Los programas informáticos suelen
seguir algoritmos, que son el conjunto de instrucciones que se encuentran
organizadas y relacionadas entre sí de cierta manera y que permiten llegar a la
solución de un problema, y que a su vez contienen módulos más pequeños que le
aportan detalles más finos. Todo esto a escala de gran complejidad forma parte
de la programación informática que permite trabajar al software de los equipos
de computación y la cual suele ser llevada a cabo por técnicos o
ingenieros en sistemas.
En los comienzos del desarrollo de la programación informática, se
utilizaban lenguajes máquina muy básicos y limitados como el sistema binario
(uso de los números 0 y 1 en distintas combinaciones); más tarde comenzaron a
surgir lenguajes que hacían uso de códigos de palabras, y luego, conjuntos de
algoritmos mucho más complejos que se denominaron lenguajes de alto nivel.
ASCII
¿Qué es el
ASCII?
En informática, se conoce como ASCII (pronunciado aski) o Código ASCII a un código de caracteres escritos que se basa en el alfabeto latino, idéntico al empleado por el inglés moderno. Proviene de una renovación o reelaboración del código empleado hasta 1963 en la telegrafía, realizado por el Comité Estadounidense de Estándares (hoy en día el ASA, por sus siglas en inglés). Su nombre es acrónimo de American Standard Code for Information Interchange o Código Estándar Estadounidense para el Intercambio de Información.
El código ASCII original empleaba 7 bits de información para representar cada uno de los caracteres correspondientes, y un bit adicional para la comprobación de errores (para un total de 8 bits, es decir, un byte). No se lo debe confundir con diversos códigos actuales de 8 bits que extienden el ASCII para incorporar signos de otros idiomas distintos al inglés.
Dicho de modo más simple, se trata de una traducción numérica del
alfabeto empleado por el inglés, dado que los sistemas informáticos sólo
manejan código binario (0-1) como lenguaje para representar sus operaciones
lógicas. Así, a cada caracter (letra, signo o incluso espacio en blanco)
corresponde en ASCIIuna cadena numérica
de ocho bits (ocho dígitos entre 0 y 1, es decir, en código binario).
El estándar de ASCII se publicó por primera vez en 1967 y se actualizó por última vez en 1986, llevándolo a su versión contemporánea para 32 caracteres no imprimibles y 95 imprimibles que les siguen en numeración. Se trata de un código empleado casi universalmente por los sistemas informáticos actuales, indispensable para administrar dispositivos de carácter tipográfico, como son los teclados.
A medida que las necesidades de uso del código aumentaban, se
crearon versiones extendidas de ASCII para
facilitar la incorporación de lenguas distintas al inglés y de descriptores
lógicos, matemáticos o científicos especializados. Incluso se popularizó el “arte ASCII” o imágenes generadas por computadora
mediante el posicionamiento estratégico de cadenas de código en la página, que
al verlas de lejos conforman figuras y dibujos.
Ejemplos de código ASCII
Algunos ejemplos de formulación ASCII para representar caracteres
comunes son los siguientes:
•
Caracter “A”:
0100 0001
•
Caracter “C”:
0100 0011
•
Caracter “!”:
0010 0001
•
Caracter “#”:
0010 0011
•
Caracter “/”:
0010 1111
•
Caracter “K”:
0100 1011
•
Caracter “k”:
0110 1011
•
Caracter “X”:
0101 1000
•
Caracter “x”:
0111 1000
•
Caracter “[”:
0101 1011
•
Caracter “=”:
0011 1101
•
Caracter “Z”:
0101 1010
•
Caracter “z”:
0111 1010
•
Caracter “:”:
0011 1010
•
Caracter “,”:
0010 1100
•
Caracter “.”:
0010 1110
•
Caracter “0”:
0011 0000
•
Caracter “6”:
0011 0110
•
Caracter “9”:
0011 1001
•
Caracter “+”:
0010 1011
•
Caracter “-”:
0010 1101
•
Caracter “]”:
0101 1101