sábado, 21 de octubre de 2017

HISTORIA DE LA INFORMÁTICA

HISTORIA DE UN DESCUBRIMIENTO: EL TEJEDOR DE NÚMEROS
Charles Ambages, famoso inventor y matemático, considerado como el inventor del ordenador (si es posible remontarse al origen de un invento), nació en Inglaterra en 1792. Como muchos sabios de la época, heredó una fortuna considerable y la gastó en la empresa loca y ambiciosa que constituyó el trabajo de toda su vida. A principios del siglo XI empezaba a notarse la progresiva complejidad de la existencia; eran cada vez más las personas que vivían dedicándose exclusivamente a los cálculos y a la recopilación de datos de todo tipo. Una de las tareas más arduas y susceptibles de error era la recopilación de tablas logarítmicas; Ambages continuamente encontraba en ellas errores banales. Ambages empezó a concebir la idea de que una máquina podría realizar ese tipo de operaciones con mucha más facilidad y exactitud. Pronto se formó en su mente el esquema básico para la construcción de una máquina de este tipo; en 1821 se sintió lo suficientemente seguro de su proyecto como para anunciar a la Roya Astronómico Societario que iba a construir un prototipo y a hacerles una demostración. Explicó que su máquina funcionaría según el “método de las diferencias” y dio detalles bastante convincentes sobre su funcionamiento. Basta decir que la máquina podía resolver ecuaciones polinómicas calculando diferencias sucesivas entre conjuntos de números. La mostró en una asamblea de la Sociedad en 1822, y la presentación tuvo una buena acogida. Entusiasmado, Babbage empezó a construir la versión final de la máquina, una máquina extremadamente grande y compleja. Además, Babbage pretendía que la máquina no sólo calculara las tablas, sino que las imprimiera sobre papel. Pidió una subvención al gobierno británico y con ella se construyó un taller, contrató operarios y finalmente comenzaron los trabajos. El proyecto se puso en marcha fabricando tornos especiales y centenares de ejes, ruedecillas y engranajes necesarios para construir las partes móviles de la máquina diferencial, pero al poco tiempo ya surgieron las primeras dificultades. Babbage incitó a sus operarios a trabajar con más precisión. Hubo una mejora pero no lo suficientemente adecuada a la complejidad global del sistema. Insensible a los primeros fracasos, Babbage presionó a sus mecánicos e intentó obtener resultados mejores de lo que los instrumentos y los materiales de la época podían permitir. Aunque recibió más subvenciones del gobierno el proyecto fue suspendido en 1833. 
'Orígenes de la Informática'
Si Babbage hubiera sido una persona razonable, ese hubiera sido el momento de detenerse a contemplar las toneladas de engranajes de latón y de plomo y aceptar el hecho de que pretendía adelantarse cien años a su época. Por el contrario, su mente empezó a dedicarse a un esquema aún más ambicioso. En este momento nació el concepto de ordenador.
Si bien la máquina diferencial constituía un paso adelante con respecto a cualquier otra cosa construida anteriormente, era capaz de realizar una única tarea: resolver ecuaciones polinómicas. El sistema era lo que hoy llamaríamos un “ordenador dedicado”.
Reflexionando, Babbage se dio cuenta de que estaba siguiendo un camino equivocado. Una máquina que podía realizar un determinado tipo de cálculos, podía, seguramente, realizar cualquier tipo de cálculos. Esta idea fue demostrada matemáticamente, casi un siglo después, por otro genio inglés: Alan Turing. Pero Babbage llegó a su extraordinaria intuición. El planteamiento de la máquina debía permitir que sus mecanismos se pudieran usar de muchas formas distintas. Sólo faltaba una idea brillante para encontrar la forma de “decirle” a al máquina qué acción, de entre la enorme variedad de acciones posibles, debía emprender en cada momento. Babbage llamó a este dispositivo “máquina analítica”; conviene subrayar que estaba hablando propiamente de un “ordenador programable”
Resultado de imagen para origen de la informatica

BIENVENIDA

Te doy la bienvenida a mi blog en este encontraras todos los temas relacionados con a tecnología sus avances también podemos encontrar los avances de la Internet y todo lo relacionado con los computadores y un poco mas sobre sus descubrimientos etc. 
Resultado de imagen de la informática y la tecnologia


QUE ES LA INFORMÁTICA


La informática, también llamada computación en América latina, es una ciencia  que estudia métodos, técnicas, procesos, con el fin de almacenar, procesar y transmitir información  y datos en formato digital.  La informática se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX, con la aparición de tecnologías tales como el circuito integrado, el Internet  y el teléfono móvil .Se define como la rama de la tecnología que estudia el tratamiento automático de la información.
En 1957, Arlar Liechtenstein añadió la palabra alemana Informatik en la publicación de un documento denominado Informativo: Automatismo Informatices engarberar(Informática: procesamiento automático de información). ​ El soviético Alexander  Ivanovich Mikhailov fue el primero en utilizar Informativo con el significado de «estudio, organización, y inseminación de la información científica», que sigue siendo su significado en dicha lengua ​ En inglés, la palabra informaticé fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa Informatics General.

ORIGENES DE LA INFOMATICA

En los inicios del procesamiento automático de información   con la informática sólo se facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una disminución de los costes y un incremento en la productividad. En la informática convergen los fundamentos de las ciencia de la computación , la programación, y también las metodologías para el desarrollo de software, la arquitectura de las computadoras, las redes de computadores la inteligencia artificial  y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios , almacenamiento y consulta de información, monitorización y control de procesos industria robótica, comunicaciones, control de transportes, investigación desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia medicina, biología, física química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial(en una empresa) como permitir el control de procesos críticos. Actualmente, es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se cuentan las siguientes:
  • Creación de nuevas especificaciones de trabajo
  • Desarrollo e implementan de sistemas informáticos
  • Sistematizan de procesos
  • Optimizan de los métodos y sistemas informáticos existentes
  • Facilitar la automatización de datos y formatos.
  • Resultado de imagen de la informática y la tecnologia


Es difícil determinar el punto de inicio para una síntesis histórica de la informática, por cuanto son muchos los trabajos y descubrimientos que trajeron como consecuencia la construcción de los primeros computadores.
Informática se puede considerar como "Tratamiento automatizado de la información”.
El origen de la informática se remonta al año 1890 cuando Herman Hollerith (1860-1929), que trabajaba para la oficina del censo en EE.UU. se percató de que el procesamiento de los datos del censo del año 1880, no se había terminado y se acercaba el momento de hacer el de 1890.
Para resolver el problema consiguió por primera vez automatizar el procesamiento de grandes cantidades de información por   medio de su invento   llamado Maquina   censadora o tabuladora   para la cual diseñó una   tarjeta que se debía   perforar con los datos de   cada uno de los   encuestados. Con ello se multiplicó por 100 la velocidad de proceso, logrando completar el censo de 1890 en dos años y medio.
En 1896, Hollerit fundó su propia empresa, la Tabuling Machine Co. posteriormente convertida en la Computing Tabulating Recording (1911), tras pasar a manos de   Thomas Watson se   denominó en 1924   International Bussiness   Machines IBM.


La utilización de métodos de ayuda en la realización de cálculos se remonta a más de 4000 años, cuando se empezaron a utilizar muescas en trozos de madera o de piedra para llevar la contabilidad en el intercambio de productos.
S. IX a .J .C. EL ÁBACO:
Es una de las máquinas calculadoras más antiguas que se conoce. Empleado por los romanos en el siglo IV a. J.C., aunque los chinos ya utilizaban un contador a base de bolas hacia el siglo IX a. J.C.
El ábaco todavía se utiliza (la mitad de la población mundial lo sigue empleando) y hay operadores especialmente hábiles que pueden obtener con él incluso raíces cuadradas. Toda esta época, conocida como el oscurantismo, tiene como características comunes en las herramientas la operación totalmente manual y la no mecanización.
1642. LA PRIMERA SUMADORA:
En 1642 B. Pascal, matemático e inventor francés, inventó la primera sumadora de engranajes, este dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correctos.
Esta sumadora, perfeccionada por el filósofo y matemático alemán Gottfried Wilhelm Leibniz, fue la primera máquina multiplicadora. En esta máquina la operación de multiplicar se efectuaba por sumas sucesivas.
Se trataba sin embargo, de máquinas no utilizables con fines prácticos, que no fueron más que curiosidades hasta mediados del siglo XIX.

  • LA PRIMERA MÁQUINA IMPRESORA:

  • Mills, construye la primera máquina impresora, que es el primer dispositivo de salida de información.
    1833. LA “MÁQUINA ANALÍTICA”:
    En 1833, el británico Ch. Babbage (considerado el padre de la informática moderna) diseñó, y a lo largo de los siguientes años trató de construir, una máquina, a la que llamó “máquina analítica”, que debía permitir realizar las cuatro operaciones fundamentales sobre 1000 números de 50 cifras contenidos en una memoria. Por razones puramente técnicas nunca llegó a funcionar pero su diseño alcanzó gran fama debido a que Babbage estableció cuáles debían ser los elementos fundamentales de un sistema automático.
    1889. MÁQUINA CAPAZ DE DIVIDIR:
    A finales del siglo XIX (1889) se construyó la primera máquina capaz de dividir. Contenía una tabla pitagórica y efectuaba las divisiones seleccionando los resultados a partir del contenido de las tablas, pero nunca fue utilizado con fines prácticos.
    PRINCIPIOS XX. PRIMERAS IDEAS DE LOS ORDENADORES:
    Comienzan a construirse los ordenadores analógicos. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios.
    El matemático húngaro J. von Neumann (1903-1957) fue quien definió las características básicas del funcionamiento de las máquinas programables que hoy conocemos como ordenadores: almacenamiento de programas en una memoria física y recorrido paso a paso, de forma secuencial, de las instrucciones almacenadas. En base a sus ideas, se empezaron a construir los primeros ordenadores digitales modernos alrededor de la II Guerra Mundial.
    Se distinguen distintas generaciones en la historia de los ordenadores. El paso de una generación a la siguiente se produce cuando se dan avances significativos en los elementos que constituyen el soporte de la información.
    1ª GENERACIÓN (1940-1952)
    La primera generación se corresponde con el uso de válvulas de vacío y relés electromagnéticos para el almacenamiento de datos. El número de componentes por decímetro cúbico es de diez. Un predecesor inmediato de esta generación fue el ordenador digital “Mark I”, desarrollado en la universidad de Hardvard por H.H. Aiken, que se basaba en interruptores mecánicos, para su época, tenía una potencia enorme y sus dimensiones eran notables. 18metros de longitud y 2'5 de altura.
    En 1940 se construyó el “ENIAC” (ordenador e integrador numérico electrónico). Empleaba 18000 válvulas de vacío en lugar de interruptores. Ocupaba 150 m2 y pesaba 30 toneladas. Tardaba casi medio segundo en multiplicar dos números de diez cifras. Hoy, un PC lo hace más de un millón de veces más rápido.
    En 1951, aparece el “UNIVAC-I”, que es el primer ordenador comercial.

    viernes, 29 de septiembre de 2017

    Sistemas de tratamiento de la informatica


    Los sistemas computacionales generalmente implementados como dispositivos electrónicos permiten el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:
    • Entrada: captación de la información. Normalmente son datos y órdenes ingresados por los usuarios a través de cualquier dispositivo de entrada conectado a la computadora.
    • Proceso: tratamiento de la información. Se realiza a través de programas y aplicaciones diseñadas por programadores que indican de forma secuencial cómo resolver un requerimiento.
    • Salida: transmisión de resultados. A través de los dispositivos de salida los usuarios pueden visualizar los resultados que surgen del procesamiento de los datos.
    • Sistema operativo es un conjunto de programas que permite interactuar al usuario con la computadora.
    • Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se demandan. Están basados en la electricidad, o sea, no en el control del flujo del electrón, sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua o si es inducida, contrainducida, en fase o desfase (ver periférico de entrada).
    • Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de información que no se demandará por un largo periodo de tiempo. Estos sistemas usan los conceptos de biblioteca para localizar la información demandada.
    • Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de esta forma la comunicación entre dispositivos digitales así como su proceso y almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código ASCII para representar textos, gráficos, audio e infinidad de información para el control y manipulación de dispositivos digitales

    HISTORIA DE LA INFORMÁTICA

    HISTORIA DE UN DESCUBRIMIENTO: EL TEJEDOR DE NÚMEROS Charles Ambages, famoso inventor y matemático, considerado como el inventor del orde...