jueves, 13 de julio de 2017

                 Historia de la informática


Resultado de imagen para octogono trigamado-3000: Período del emperador Chino Fou-Hi cuyo símbolo mágico, el octógono trigamado contiene los ocho primeros números representados bajo forma binaria por rasgos interrumpidos o no: 000.001.010.011 etc...

-500: Aparición en Oriente Medio de la primera herramienta de cálculo: el ábaco. El uso de éste aún es notable en la actual China y Japón. Sin embargo, este dispositivo no se le puede llamar computadora ya que no consta con un programa.


Siglo XVII: el matemático Al Juarismi inventa el algoritmo, es decir, la resolución metódica de problemas mediante una lista definida de operaciones.

Resultado de imagen para huesos de napier
1580: John Napier introduce un invento llamado los huesos de napiar que incluía el sistema de logaritmos, por el cual, los productos se reducen a sumas, los coscientes a restas, las potencias en productos y las raíces en divisiones. 



1623: Wilhelm Schickard inventa lo que el llama un reloj que calcula. Calculaba mecánicamente y podía realizar adiciones, sustracciones, multiplicaciones y memorización de los resultados intermedios.


1623: El filósofo Francis Bacon inventa el Código Bacon a dos letras que permite con la utilización de cinco caracteres cifrar las letras del Alfabeto.


Imagen relacionada
1632: El inglés William Oughtred, crea la regla deslizante. Era un juego de discos rotatorios que se calibraron los logaritmos del propio Napier. Se usó como uno de los primeros aparatos de la informática analógica.


1642: Blaise Pascal inventa la Pascalina que podía ejecutar adiciones y sustracciones. Funcionaba a base de engranajes y estaba destinada a solucionar problemas de la atirmética comercial. A diferencia a la máquina de Schickard, esta tuvo algo de éxito por el aprecio de la Corte del Rey. Es por eso, que a menudo se la considera como la primera máquina de calcular de la historia.


1666: Samuel Moreland 
(Berkshire, Inglaterra 1625-1695) inventa una versión mecánica de los huesos de Napier considerada como la primera máquina de multiplicar de la historia.


1679: el alemán Gottfried Leibnitz descubre y pone a punto la aritmética binaria (y analiza los octogramas de Fou-Hi). Inventa también, en 1694, una máquina de calcular derivada del Pascalina pero capaz de tratar las multiplicaciones y divisiones.

1728: Falcon construye el primer telar que utiliza las tarjetas perforadas para funcionar.

1770: Hahn en Alemania inventa la primera máquina de calcular que realiza directamente las cuatro operaciones (basada en el cilindro dentado inventado por Leibnitz en 1671).

1777: Charles Mahon, Conde de Stanhope, crea la primera máquina lógica. El "demostrador lógico" era un aparato de bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad.



Imagen relacionada

Finales del siglo XVIII: un francés dedicado a la industria textil, Joseph Marie Jacquard, inventó un telar automático, cuyas repercusiones en el área de la computación llegan hasta nuestros días. Dicho telar funcionaba con una cadena de tarjetas perforadas, de tal suerte que las agujas pasaban por los agujeros de las tarjetas e incorporaban el hilo al tejido, lográndose diseños muy originales. Estas tarjetas actuaban como un verdadero programa para la máquina tejedora.

Resultado de imagen para telegrafo optico
1792: Los hermanos Chappe inventan en Francia el telégrafo óptico. Era un utensilio 
diseñado para ser visto a gran distancia configurando diversas señales por medio de un mecanismo operado por una o varias personas que permitía enviar mensajes rápidamente.


1820: Carlos-Xavier Thomas de Colmar inventa el aritmómetro sobre la base de la máquina de Leibnitz. Como es una unidad práctica, fácil de utilizar y portable, la máquina adquirió un gran éxito. Se vendieron más de 1500 ejemplares en 30 años. La máquina obtuvo la medalla de oro de la Exposición de París en 1855.

1833: Babbage imagina e intenta realizar una máquina de diferencias y luego una máquina analítica que contiene los conceptos de lo que será el ordenador moderno: unidad de cálculo, memoria, registro y entrada de los datos por tarjeta perforada. Babbage
 nunca pudo llevar a cabo estos diseños pues la tecnología de la época no estaba a la altura del proyecto.


1836 - 1838: Los Ingleses Edward Davy, William Looke y Charles Wheastone inventan el telégrafo. El pintor Americano Samuel Morse inventa el código que lleva su nombre que utiliza puntos y líneas para representar los caracteres que deben transmitirse.

1840:La condesa Ada de Lovelace, principal aliada de la obra de Babbage, escribió una serie de notas acerca de la máquina analítica y plantea por primera vez el tema de la capacidad creadora de las mismas. A esta mujer se la considera la primer programadora.






Imagen relacionada
24 de mayo de 1844: Samuel Morse efectúa la primera demostración pública del telégrafo enviando el mensaje "What hath God wrought?" a una distancia de 60 km entre Philadelphia y Washington (EE.UU.). Las redes telegráficas van a desarrollarse muy rápidamente en el mundo (37000 km de líneas instaladas en 10 años).

1867: Los Americanos Sholes y Glidden inventan y comercializan la primera máquina de escribir bajo la marca Remington.

1876: El Americano Graham Bell desarrolla (que no inventa) el teléfono y funda la compañía Bell Telephone Company.

1884: Herman Hollerith crea un tabulador de tarjetas perforadas (inspirado en los telares jacquar) para realizar el censo Americano de 1890. Se trata de la primera máquina que debe tratar la información. El dibujo visible a la derecha representa todas las etapas del tratamiento de la información en el censo.

1886: Don E. Felt de Chicago (EE.UU.) lanza el Comptometer. Se trata de la primera calculadora que se usaba pulsando las teclas. Inventó en 1889 la primera calculadora de oficina con impresora.

1889: El Francés Léon Bollée (también conocido para sus victorias en carreras de automóvil) crea una máquina de multiplicación directa llamada el millonario. Esta máquina será un gran éxito y se producirá hasta 1935.

1892: William S. Burroughs inventa una máquina que se asemeja al Comptometer de Felt pero más fiable. Es con esta máquina con la que va a desarrollarse un verdadero mercado para estas calculadoras de oficina.

1896: Herman Hollerith,recurrió a las tarjetas perforadas para realizar censos en los EE.UU..Fabricó una máquina que contabilizaba las perforaciones, sumando las de las mismas características. Después de diversas mejoras, entre ellas la de utilizar electricidad, se logra al fin una máquina clasificadora de tarjetas perforadas que fueron utilizadas con éxito. Esta máquina permitía leer grandes volúmenes de datos desordenados produciendo información útil a alta velocidad. Hollerith fue uno de los fundadores de la International Bussiness Machine, la hoy conocida IBM. A partir del éxito de sus máquinas en el censo Americano, crea a la empresa Tabulating Máquina Sociedad especializada en las máquinas de tratamiento de la información por medio de tarjetas perforadas.Resultado de imagen para tarjetas perforadas Herman Hollerith
1904: Invención del primer tubo de vacío, el diodo por John Fleming que permite la circulación de la corriente eléctrica a través de él en un solo sentido.

Resultado de imagen para tubo de vacio 1906
1907: Invención del tríodo por Lee De Forest. Su invención dio inicio a la era de la electrónica, lo que hizo posible la tecnología de radio amplificada, la telefonía de larga distancia y la televisión

1919: Invención del basculador de Eccles y Jordan a partir de dos tríodos. Más conocido actualmente bajo el nombre de flip-flop o circuito biestable es un multivibrador capaz de permanecer en uno de dos estados posibles durante un tiempo indefinido en ausencia de perturbaciones.​ Esta característica es ampliamente utilizada en electrónica 
digital para memorizar información.


1924: Cambia de nombre la empresa creada por Herman Hollerith en 1896, Tabulating Machine Corporation, a International Business Machine, IBM.

1930: Creación del analizador diferencial por Vanevar Bush en el MTI para solucionar algunas ecuaciones utilizadas en los circuitos eléctricos. Se trata de un calculador analógico electromecánico, del que se construirían siete ejemplares.

1935: IBM comercializa el IBM 601, un calculador de relés que utilizaba tarjetas perforadas, capaz de realizar una multiplicación en un segundo. Se vendieron 1500 ejemplares esencialmente para los mercados científicos y contables.

Resultado de imagen para IBM 601

1937: George Stibitz crea el primer circuito binario, un adicionador. Lo llama el Modelo K (por Kitchen) ya que lo crea en su cocina a partir de un tablero de pan.

1937: Alan M. Turing publica un documento sobre los números calculables. Solucionaba problemas matemáticos utilizando una clase de ordenador lógico muy simple llamado Máquina de Turing: una banda de papel que implica casillas, peones que deben ponerse sobre estas casillas, un trombón señalando sobre la casilla corriente y un cuadro de instrucciones condicionales que deben realizarse.

1937Howard Aiken estudia los escritos de Babbage, y determina que se pueden llevar a la práctica. Asociado con ingenieros de la IBM y una subvención de 500.000 dolares, desarrollaron durante 5 años la calculadora Mark I, totalmente automática, electromecánica, de casi 15 metros de largo, 2,4 metros de alto, 800 km de alambres y 3.000.000 de conexiones eléctricas. 
Pero mientras Aiken trabajaba en la Mark John Atanosoff conjuntamente con su ayudante Cliford Berry, de la Universidad de Iowa, y con una subvención de apenas 650 dolares, construyeron la ABC (por Atanosoff-Berry-Computer),

primera computadora electrónica digital pero dedicada solamente a la resolución de ecuaciones lineales (29 ecuaciones con 29 incógnitas), que hizo obsoleta a la Mark I tan pronto como se encendió.
Luego Aiken desarrolla una segunda computadora, la Mark II, más rápida y electromecánica. Se utilizó para cálculos de requerimientos militares.



1938: Tesis de Shannon que es el primero que hace el paralelismo entre los circuitos eléctricos y el álgebra Booleana. Define la cifra binaria: bit (BInary digiT).

1938: Creación del Versuchmodell 1 o Z1 por Konrad Zuse. Lo pone a punto en el salón de casa de sus padres en Berlín. Se trata de un ordenador binario programable pero mecánico. No funcionó nunca correctamente.

1939: Konrad Zuse y uno de sus amigos Helmut Schreyer, se lanzan en la realización de un segundo ordenador, el Z2 sustituyendo una parte de los elementos mecánicos del Z1 por relés electromecánicos de teléfono, adquiridos de ocasión. La máquina se presentó al DVL (Deutsche Versuchsanstalt fur Luftfahrt, instituto de investigaciones aeronaúticas) que le autorizaró a seguir sus investigaciones.

Resultado de imagen para z2 computadora


1940: George Stibitz y Samuel Williams, ambos trabajando para Bell ponen a punto el Complex Number Computer llamado también Model I, un calculador trabajando en DCB (decimal codificado en binario). Estaba constituido por 450 relés y con un teletipo para entrar los datos y leer los resultados. Podía multiplicar dos grandes cifras en unos minutos. El calculador era muy simple de utilización y podía ser accedido por varias personas distantes (pero no al mismo tiempo).

1940: Para descifrar los mensajes del ejército Alemán, los Ingleses ponen a punto en Bletchley Park los ordenadores Robinson y Colossus bajo la dirección del matemático Alan Turing. Son las primeras máquinas que integran los conceptos de aritméticoa binaria, de reloj interno, de memoria tampón, de lectores de banda, de operadores booleanos, de subprogramas y de impresoras. Todo esto seguirá siendo desconocido ya que es "Secreto de defensa" hasta 1975.

1940: Bell instala terminales teletipo en el Darmouth College (New Hampshire), conectadas por líneas telegráficas con el Model I a Manhattan en un congreso de la "American Mathematical Society".. Dos investigadores Norbert Wiener y John Mauchly hacen la demostración de las posibilidades de cálculo a distancia.

1941: Creación del calculador binario ABC por John Atanasoff y Clifford Berry. La máquina utiliza válvulas e implica una memoria y circuitos lógicos. Fue el primer calculador que utilizó el algebra booleana. La memoria, constituida por 2 tambores, podía almacenar 60 palabras de 50 bites. La máquina trabajaba a 60 Hz y podía realizar una adición en un segundo. Esta máquina a veces se considera como el primer ordenador, aunque su programa no se almacenaba en memoria.

1941: Konrad Zuse, movilizado en las fábricas de aviones Henschel, pone a punto con un equipo de 15 personas el Z3, el primer calculador con programa registrado. Debido a esta característica, se puede considerar que se trata del primer ordenador verdadero. Se trataba de una máquina compuesta de 2600 relés, de una consola para el operador y de un lector de cintas que contenían las instrucciones que deben realizarse. La máquina podía almacenar 64 numeros de 22 bit. Podía realizar cuatro adiciones por segundo y una multiplicación en segundos segundos. Se destruyó en un bombardeo aliado en abril de 1945. Un calculador más potente, se realizó el Z4. Zusey su equipo desmontaron el Z4, y huyeron de Berlín antes de la invasión Rusa y fueron encontrados por las tropas aliadas. El ordenador fue examinado por la Oficina de Investigaciones Navales de EE.UU. Se instalaba a continuación en la escuela Politécnica de Zurich (Suiza) en 1950 y luego trasladado a Basilea, a un instituto de investigaciones aerodinámicas donde sirvió hasta 1960. Se construyeron varias máquinas sobre el mismo modelo.
Resultado de imagen para z4 computadora
1943: Creación del ASCC Mark I (Automatic Sequence-Controlled Calculator Mark I) en Harvard por Howard Aiken y su equipo (con el apoyo de IBM). Es un enorme calculador electromecánico (3000 relés, 800 km de cables) que permitía hacer 3 operaciones sobre 23 cifras por segundo. El programa se leía desde una banda de papel. Los datos que deben tratarse podían leerse desde otra banda de papel o un lector de tarjetas. Las conexiones condicionales no eran posibles. En consecuencia, la máquina era modificada para permitir, gracias a otros lectores de bandas, ir a leer una secuencia de instrucciones sobre otro lector, permitiendo así las conexiones condicionales o el lanzamiento de subprogramas.

1945: Vannevar Bush publica el texto "As we may think" dónde describe una clase de máquina imaginaria, el Memex, capaz de ayudar a un individuo a guardar y encontrar toda clase de información de manera simple por medio de vínculos y asociaciones entre los documentos. Fue la primera formulación del concepto de hipertexto.

1945: Un insecto que había entrado dentro de los circuitos bloquea el funcionamiento del calculador Mark I. La matemática Gracia Murray Hopper decide mientras que todo lo que impida el buen funcionamiento de un programa se llamará BUG. Parece que la expresión ha permanecido. Hay que señalar que el término BUG ya se utilizaba antes de eso: Thomas Edison por ejemplo había empleado este término en un correo donde hablaba de la puesta a punto problemático de la una de sus invenciones.

1945: John von Neuman, uniéndose al equipo trabajando sobre el ENIAC, publica el primer informe describiendo lo que debería ser un ordenador con programa registrado que llama el EDVAC (Electronic Discrete Variable Automatic Computer). Es un documento muy completo y desde entonces se hace referencia, hablando de ordenadores, a arquitectura Von Neuman.
Resultado de imagen para eniac

1946: Presper Eckert y John Mauchly, de la Universidad de Pensilvania, empezaron en 1943 y terminaron de construirla en 1946 la Eniac (calculador e integrador numérico electrónico), totalmente electrónica y controlada por cables integrados a su propio cuerpo. Cien veces más rápida que sus antecesoras, necesitaba un espacio de 150 m2. La utilizaron físicos nucleares. Entre sus características físicas se cuentan 18000 tubos de vacío, 70000 transistores, 6000 interruptores, pesaba 30 Tn con 25 m de largo por 2,5 m de alto y 1 m de profundidad y velocidad de 5000 sumas/segundo. Consumía 140 kw/h y necesitaba poderosos equipos de aire acondicionado.

1947un grupo de científicos norteamericanos mostró al mundo el primer transistor de la Historia humana: un amplificador semiconductor. Desde que se inventó el transistor, se ha reducido desde los primeros tamaños comerciales, que eran un poco más grandes que la goma de borrar de un lápiz, a algo tan pequeño que han acomodado cincuenta y cinco millones de transistores dentro del chip de una Pentium 4.


1951Remington Rand Corporation, fabrica la UNIVAC I, utilizada por la Oficina de Censos de los EE.UU. y luego fue ofrecida para procesar datos comerciales.

PRIMERA GENERACIÓN: 1951 - 1958. Se caracteriza principalmente por el uso de válvulas electrónicas o tubos de vacío, de gran tamaño y mantenimiento complicado. Generaban abundante calor y necesitaban poderoso equipos de refrigeración.  Los tiempos de computación eran del orden de los milisegundos (1"/1000), se podían realizar hasta 40.000 sumas y restas por segundo.

SEGUNDA GENERACIÓN: 1959 - 1964Se adoptan los transistores, con lo que se reducen los espacios ocupados, disminuye la disipación de calor, aumenta la velocidad al orden de los microsegundos (1"/1.000.000). La memoria está compuesta de núcleos de ferrita, se podían realizar hasta 200.000 sumas y restas por segundo.

Resultado de imagen para ibm 7090



Resultado de imagen para ibm s 360TERCERA GENERACIÓN: 1965 - 1970. Aparecen los circuitos integrados (lógica sólida), que son conjuntos de varios cientos de transistores. Los equipos son de dimensiones menores, con velocidades del orden de los nanosegundos (1"/1.000.000.000), realizándose del orden de 1.300.000 sumas y restas por segundo. Los sistemas de explotación permiten la ejecución simultánea de varios programas, aumentando el rendimiento. Se permite el teleprocesamiento.
Resultado de imagen para apple 1
CUARTA GENERACIÓN: 1971 - 1983. Los equipos están caracterizados por la utilización de circuitos impresos de alta escala de integración y la aparición de los microprocesadores. Las velocidades de cálculo son asombrosas (mayor a 1"/1.000.000.000), con alta confiabilidad, con aproximadamente 15.000.000 de sumas y restas por segundo. Los sistemas de explotación son más accesibles para todos los usuarios y están caracterizados por la aparición de microcomputadores de uso general.
Resultado de imagen para ibm pc

1981: IBM en particular y la informática en general, lograron una de las mayores azañas de la era de la computación. Con la comercialización del ordenador personal (PC) la informática dejaba de ser una ciencia oculta y misteriosa sin ningún sentido para la mayoría, para convertirse en una utilidad práctica que más tarde nos haría depender de ella.


QUINTA GENERACIÓN: 1990 hasta nuestros días. Surge como computadora portátil o laptop tal cual la conocemos en la actualidad. IBM presenta su primera laptop o computadora portátil y revoluciona el sector informativo. La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (Fifth Generation Computer Systems) fue un ambicioso proyecto hecho por Japón a finales de la década de los 80. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra.







sábado, 24 de junio de 2017

Para compactar las imágenes de video existen distintos formatos:

-MPG: es el más común para compactar (desarrollado por la misma empresa que hizo JPG al igual que MP4)

-MP4: no tiene tanta calidad debido a que fue pensado para dispositivos pequeños
-WMV: creado por Microsoft 
-MOV: buena calidad y alta compactación
-MKV: formato ruso con muy buena calidad y compactación
-AVI: es un contenedor de videos. Este tiene diferentes sistemas de compactación:
        -DIVX: es un sistema de compactación pago                                     -XVID: es uno gratuito desarrollado por programadores para                        la comunidad
-FLV: se encuentra en la mayoría de las páginas web (creado por Adobe                                                                                                                                                                                                                                                              

                               
                                           SONIDO                                                                                                                                                                 Para digitalizar el sonido se necesitan tomar muestras. Cuantas más haya, mejor va a ser la nitidez del sonido

Muestreo: es la cantidad de veces por segundo que se toman mediciones para evaluar el sonido y se mide en hercios (44000 hz para calidad CD).

Cuantificación: qué valor tiene cada muestra (en el CD, 16 bits)

Los formatos más comunes de compactación de sonido son:

MP3: reduce entre 10 y 12 veces el tamaño aunque se pierde un poco de calidad.

FLAC (Código de Audio sin Pérdida Gratuito): solo compacta la mitad del audio, sin embargo, es gratuito y no se pierde nada de calidad.

                                                                                                                                                                                                                                                                                                                                                                                                                                                                                              Resultado de imagen para telefonia celular satelital                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                    

lunes, 22 de mayo de 2017

video

Video : el video es la suma de el sonido y muchas imagenes con una secuencia muy rapida que da la sensacion de movimiento . Como son imagenes para digitalisarlo se utiliza el mismo procedimiento (dividir en pixeles cada imagen ,analizar los pixeles , guardarlos , compactarlos y finalmente descompactarlos ).
 los primeros videos eran en cine y tenian 24 cuadros o fotogramas (cada una de las fotos que contiene un video) por segundo.
              Unos de los primeros videos de cine fueron echos por NTSC(National Television System Committee, (en español Comité Nacional de Sistema de Televisión).Este utilizaba 29.97 fotogramas por segundo y presentaba las imagenes formadas por 525 lineas verticales de las cuales primero se formaban las impares y luego las pares .Este modo de presentar la imagen es a base de el pixel progresivo que esta formado por puntos que conforman estas lineas .todas estas empresas utilizan un codigo de descompactacion por ejemplo tambien lo utiliza una empresa llamada pal pero en total sus pixeles progresivos son  625 cada grupo de impares  se presenta 25 veces por segundo y lo mismo pasa con los pares ademas de tener un mejor color .Estas dos agrupaciones (pal y ntsc poseen dos codigos de descompactacion diferentes pero nuestros reproductores son binormas lo que sugnifica que pueden reproducir videos que vengan de las dos compañias 

Como la definicion depende de la cantidad de pixeles que hay en una imagen y mientras mas mejor estas son las medidas mas comunes .

 hd=base es de 1280 y su altura de 720 un pixel de sd equivale a cuatro de estos por eso tiene mas definicion 
full hd =su base es de 1920 y su altura de 1080 un pixel de hd equivale acuatro de estos 
uhd =su base es de 3840 y su altura de 2160 , cuatro de estos pixeles equivalen a un pixel de full hd 
4k :su base es de 4096 y su altura de 2160 , cuatro pixeles de este equivalen a uno de uhd y a 16 de 8k 







sábado, 20 de mayo de 2017

Digitalizacion de una imagen

 El objetivo de digitalizar una imagen es representarla en BITs para poder transmitirla a un aparato digital  
Para esto se debe separar la imagen en pixeles .
Resultado de imagen para imagen pixelada
El pixel es el elemento basico para confirmar una imagen .Es cuadrado y su superficie es homogenea y contiene una sola tonalidad .Este no se puede dividir y la tonalidad se decide segun el porcentaje mayor de esta .
un pixel vale 1 bit pero como el bit representa solo dos alternativas la imagen va a estar en blanco y negro ademas de tener muy poca definicion ya que la imagen se divide en menos pixeles y partes mas grandes son representadas en un mismo color .Por  eso mientras en mas pixeles este dividida la misma imagen va a tener mayor definicion .
-1bit por pixel equivale a imagen en blanco y negro 
-8 bits o 1 byte es igual a 256 tonos de grises 
-24 bits o 3 byts son 16.7 millones de colores 
- 27 bits color verdadero 
- 32 bits o 4 byts color verdadero 
el color verdadero es cuando el color que aprecian nuestros ojos en la vida real al mirar un objeto se plasma casi igual en la imagen que capturamos con camara telefono etc.
luego de ser analizados , los pixel son guardados pero como generalmente poseen muchos digitos gracias a los colores y su cantidad se utiliza una "abreviatura" donde se los compacta con codigos matematicos .Estos codigos los crean empresas que se didican a esta tarea y los cobran pero los digitos de descompactacion, los que usamos nosotros cuando vemos las imagenes somos gratuitos . 
El codigo mas popular es el de la empresa 

Joint Photographic Experts Group .

Pero ademas de esto la imagen depende de esto para analizarse
↗cmos :(fotocelulas) que convierte la luz en pixels y ve que hay en cada uno de ellos .
↘lentes :capturan la imagen .La calidad de estos depende del material con el que esten echos . Por ejemplo si son de plastico la calidad no va a ser tan buena como si fuerande cristal .Hay varias empresas que fabrican las lentes por ejemplo :Leica ,Leitz y Zeiss.Resultado de imagen para lentes de camaras

jueves, 11 de mayo de 2017


DIGITALIZACION DE TEXTO 



Cuando existieron las primeras fabricas de computadoras , estas maquinas  eran muy diferentes a las que utilizamos en la actualidad, por ejemplo eran mucho mas grandes,mas caras ,no se comunicaban entre ellas y cada fabrica solia tener solo una ademas de que poseia un codigo que nadie compartia y cuando se adquiria otra no era posible transmitir la informacion y se perdian los datos que tenia.
 El gobierno de EEUU se dio cuenta de esto y creo una comision para encargarse de este asunto a la cual llamo :American Standar code for information interchange(ASCII) o codigo estandar estadounidense para el intercambio de informacion 
 Esta comicion creo la tabla de ASCII que es un codigo que utilizan todos y es el mismo que permite la comunicacion entre las computadoras .luego se fue modificando ya que se expandio por todo el planeta y ahora es posible traducir desde esta todo simbolo letra o numero de cualquier idioma .

Resultado de imagen para digitalizacion de textoej:A  es igual a 65 en  decimal 
B es 66
C es 67 
D es 68 etc

miércoles, 10 de mayo de 2017

Sistema octal

Base: 8 (0,1,2,3,4,5,6,7)

Decimal: 8 9 10 11 12
Octal : 10 11 12 13 14
Resultado de imagen para sistema octal
Sistema hexadecimal

Base: 16 (0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F)

Decimal: 16 17 18 19 20 21 22 23 24 25 26 
Hexadecimal: 10 11 12 13 14 15 16 17 18 19 1A

Este sistema se usa, por ejemplo, para el vuelco de memoria.


Resultado de imagen para sistema hexadecimal

                                         BIT

Se puede definir de dos formas:

- Binary digit 0-1
- Es la mínima undad de información

Cualquier elemento que tenga dos estados se lo denomina BIT.
Se puede enviar un mensaje con BITs. Por ejemplo, querés dejar un mensaje que diga qué día de la semana es.
Resultado de imagen para sistema octal
000 - 001 - 010 - 011 - 100 - 101 - 110 - 111 (8 posibilidades)
Posibilidades= 2 potenciado al número de BITs


                                       BYTE

Es el conjunto de 8 BITs y es la mínima undidad de memoria direccionable.
El byte se maneja en conjuntos:

Resultado de imagen para unidades de bytes