Medios de Informatica:
¨(Del
fr. informatique, compuesto de information y
automatique); sust. f.
|
Al estudiar el tratamiento de la
informa ción, hay que conocer:
- qué es la información y cuál debe
ser su tratamiento.
- cómo ha ido evolucionando.
- qué operaciones se pueden realizar con ella.
- qué máquinas y dispositivos se pueden utilizar en las distintas
fases del proceso.
- qué métodos y medios e, incluso, los tipos de codificaciones
adecuadas.
La información es todo aquello que
permite adquirir cualquier tipo de conocimiento. Si el conocimiento
es adquirido por uno mismo se dice que es directo. Cuando se recibe
la información a través de distintas fuentes, a menudo ya elaborada,
como pueden ser relatos o libros, el conocimiento se dice que es
indirecto.
Cuando el volumen de datos a
manejar se hizo muy grande, el hombre tuvo que idear y desarrollar
procedimientos que le permitieran seguir realizando sus tareas de
tratamiento de información. Aquellas empresas que mantuvieron los
métodos tradicionales de procesamiento se vieron desbordadas y poco
a poco adoptaron las nuevas técnicas.
A finales del siglo pasado en la
oficina del Censo de Estados Unidos, nació una nueva ciencia, la
informática. Surgió ante la incapacidad de atender el enorme volumen
de información que se debía tratar. Los trabajadores del censo,
comenzaron a utilizar métodos y dispositivos que mecanizaban el
procesamiento de la información.
Proceso de
recopilación de datos, ejecución de un algoritmo y presentación de
los resultados. Adquirir la información a través de un
conocimiento directo está limitado por los elevados niveles de
información necesarios en la sociedad moderna, por lo que recibir
la información indirectamente toma mayor importancia.
La información puede
transmitirse de distintas formas pero siempre deberá existir un
elemento emisor, otro receptor y un medio de transmisión. El
emisor y el receptor pueden ser individuos o máquinas y éstas, a
su vez, pueden ser desde simples dispositivos hasta complejos
mecanismos. De las características del emisor y del receptor,
dependen las de los demás elementos que intervienen en la
transmisión:
1. El medio o la
forma de transmisión: oral, escrito, telefónico, etc.
2. El soporte: aire, cuartilla, corriente eléctrica, etc.
3. El código o las normas de codificación de la información para
ser transmitida: idiomas, códigos de transmisión, etc.
4. El dato o información elemental que solo o en conjunto con
otros datos debe transmitirse desde el emisor hasta el receptor,
mediante la utilización de un medio a través de un soporte y
normalizado según un código.
El emisor y el
receptor deben haberse puesto de acuerdo, antes de la transmisión,
sobre las características de la misma para que ésta pueda
realizarse sin ningún problema.
Por lo tanto una
información constará de un determinado número de datos que podrán
ser utilizados directamente o habrá que realizar con ellos una
serie de operaciones para obtener un resultado, que podrá ser
utilizable o transmisible nuevamente.
Al conjunto de
operaciones que se realizan sobre una información con objeto de
obtener determinados resultados, se le ha denominado
tratamiento de la información. El resumen de dichas
operaciones es el siguiente:
- Recogida de datos.
- Depuración.
- Almacenamiento.
- Aritmético.
- Lógico.
- Distribución.
Al conjunto de
instrucciones que nos dicen cómo realizar una operación se le
denomina algoritmo, de manera que conociendo el
algoritmo y los datos a los que se va a aplicar podemos ejecutar
una operación o acción.
La descomposición de
un problema en un algoritmo o conjunto de instrucciones es una
técnica habitual en la actividad humana pero normalmente el
individuo no es consciente de su utilización. Sin embargo, en
informática, cuando se plantea la realización de un tratamiento,
esta técnica se realiza de un modo calculado y consciente, ya que
la automatización de un proceso pasa irremediablemente por el
planteamiento del algoritmo que le da solución.
Para automatizar un
tratamiento necesitamos un dispositivo físico, una máquina, que se
encargue de ejecutar cada una de las instrucciones recogidas en el
algoritmo. Existen dos tipos de dispositivos capaces de realizar
esta tarea:
1. Dispositivos de
lógica cableada: son aquellos dispositivos en los que el
algoritmo o algoritmos que ejecutan están realizados físicamente
en su estructura interna, de forma que sólo pueden realizar un
número de procesos fijados por el fabricante. Su funcionamiento se
reduce a la introducción de los datos y a la actualización del
proceso elegido. Un ejemplo de este tipo de dispositivos son las
calculadoras.
2. Dispositivos de
lógica programada, normalmente llamados ordenadores.
Estos dispositivos son capaces de ejecutar cualquier algoritmo que
reciban. Poseen un juego de algoritmos sencillos implementados en
una estructura interna que el usuario puede combinar para formar
algoritmos más complejos que puedan dar solución a procesos más
complicados.
Hasta ahora sólo se
ha hablado de la fase intermedia, la fase 2, del tratamiento de la
información, pero necesitamos realizar dos tareas más para que el
proceso esté completo. El ciclo de tratamiento es el siguiente:
Fase 1: Introducción
o recogida de los datos y del algoritmo a ejecutar.
Fase 2: Ejecución del algoritmo sobre los datos introducidos.
Fase 3: Presentación de los resultados obtenidos en la fase 2.
Si se produce un error en cualquiera de estas fases, el proceso
será erróneo y habrá que volver a repetirlo después de detectar y
solucionar el problema que se produjo.
Máquina universal,
capaz de interpretar y ejecutar una serie de operaciones elementales,
relativas al tratamiento de la información y a la resolución de
tareas.
Se compone de dos
partes: una física (hardware) y otra lógica (software).
a. El
hardware está configurado por componentes microelectrónicos
avanzados, que proporcionan el soporte físico necesario para la
interpretación y ejecución de instrucciones o algoritmos elementales.
b. El software
consiste en un conjunto de instrucciones comprensibles a la máquina,
que conforma un programa o programas aptos para desarrollar una
tarea o aplicación concreta.
La potencia de un
ordenador viene dada por la velocidad de desarrollo o ejecución de
instrucciones y no por la complejidad de su circuito e instrucciones
que suelen ser sencillas. En la actualidad la potencia de un
ordenador queda patente en la capacidad de proceso (procesador 486 y
Pentium) y direccionamiento (mayor número de líneas en el bus
de datos y direcciones).
Todos los procesos de
tratamiento de la información se desarrollan en 3 fases sucesivas:
- Entrada de datos.
- Proceso.
- Salida.
El tratamiento de la
información puede ser sencillo, como la realización de una suma, o
laborioso como la automatización de su centro de cálculo; en ambos
casos, el ordenador sólo realiza la fase de proceso, es decir, toma
los datos de entrada junto con el algoritmo y proporciona un
resultado de salida
El ordenador es la
herramienta más potente de la que dispone el hombre actualmente para
realizar procesos automáticos de tratamiento de información.
Desde el ábaco a la
inteligencia artificial, son muchas las fechas y los creadores en la
evolución del ordenador, y por lo tanto del tratamiento automático
de la información. Sus antecedentes son:
- El ábaco es
el dispositivo de cálculo más antiguo. Su nombre deriva del griego
abakós, que significa superficie plana. Consta de unas
cuentas ensartadas en alambres, que representan cantidades, según
sea la posición que ocupan en el dispositivo. Se ha utilizado hasta
1946, año en el que en una competición se demostró que una
calculadora electrónica era más eficiente.
- John Napier
(1550-1617), matemático escocés, inventor de los logaritmos,
descubrió un dispositivo muy ingenioso que consiste en una serie de
palillos con números impresos para realizar operaciones de
multiplicar y dividir.
- Blaise Pascal (1642)
fue el artífice del primer calculador mecánico y, en su honor, un
lenguaje de programación lleva su nombre. Inventó una máquina de
ruedas dentadas que funcionaba haciendo cambiar el sentido de giro,
según se sumara o restara; era del tamaño de un cartón de
cigarrillos.
- Leibniz (véase
Leibniz)
(1646-1716), matemático autodidacta, dio a conocer una máquina más
perfeccionada que la de Pascal, capaz de multiplicar, dividir y
obtener raíces cuadradas; se dice que lo hizo porque nadie le enseñó
a multiplicar. También propuso una máquina de calcular que utilizaba
el sistema binario, el mismo que actualmente utilizan las
calculadoras modernas.
- Joseph Jacqurd
(1752-1834) automatizó el control de diseño en los telares,
utilizando tarjetas perforadas.
Continua siguiente columna... |
|
|
Muy
Interesante
Enlace relacionado
[
las computadoras]
|
- Babbage (1822),
matemático inventor inglés, sentó las bases teóricas fundamentales
en las que aún se basan los ordenadores actuales. Los obstáculos
para desarrollar sus ideas fueron la tecnología y las necesidades de
la época, a pesar de lo cual, en 1822 diseñó su máquina diferencial
para el cálculo de polinomios. Dicha máquina se utilizó para el
cálculo de tablas de navegación y de artillería, fue subvencionada
por el gobierno y tuvo la oportunidad de trabajar en ella durante 10
años sin éxito.
- Babbage (1883)
comienza a trabajar en una máquina de propósito general para la
resolución de cualquier problema matemático. Esta nueva máquina no
pudo ser construida con la ingeniería de la época. Es considerado
como el padre de la información, ya que en esta segunda máquina ya
preveía entradas separadas para datos y programas, y se pudo alterar
la secuencia de las operaciones, en base a resultados obtenidos en
cálculos intermedios.
- Hernan Hollerit
(1879), con tarjetas perforadas y codificadas, y basándose en una
estructura de tipo eléctrico, consiguió reducir de 10 a 2 años el
tiempo de creación del censo. Dejó las oficinas del censo para
comercializar su máquina que leía de 50 a 80 tarjetas por minuto.
Fundó su empresa de máquinas clasificadas (Tabulating Machine
Company), y en 1890 ya tenía otra máquina que leía 300 tarjetas
por minuto.
- James Power (1910)
fue contratado por el censo para el que diseñó nuevas máquinas.
Más tarde creó su empresa, que fusionada con otra dio lugar a la
Sherry Rand Corporation.
- Hollerit (1924)
fusionó su empresa con otras dos, y formó la International
Bussines Machines (IBM).
- John Vicent
Atanasof (1903) decidió construir una máquina que operase en
binario, siguiendo las ideas de Babbage. Con ayuda de Clifford
Berry, estudiante al que contrató con la dotación que le concedió
el Consejo de Investigación del estado de Iava, construyó la ABC (Atanasof-Berry-Computer),
máquina con memoria de almacenamiento por carga eléctrica.
Mauchly (1940)
comenzó a dirigir el proyecto ENIAC (Electronic Numerical
Integrator and Calculator). La máquina resultante, hecha a base de
resistencias, interruptores, tubos de vacío y otras componentes,
trabajaba a una frecuencia de 100.000 Hz, pesaba unas 30 toneladas,
ocupaba 16.000 m² y consumía 100.000 w, por lo que era
imprescindible que dispusiera de ventilación forzada para disipar
la gran cantidad de calor que producía.
El ENIAC funcionaba
utilizando tarjetas perforadas y era capaz de hacer las cuatro
operaciones básicas de cálculo: sumar, restar, multiplicar y
dividir; en su estructura interna poseía 20 registros de 10
dígitos y 3 tipos de tablas de funciones.
Howard Aiken de
Harvard (1929-1944) construyó el MARK I en colaboración con IBM.
El MARK I era un
calculador electrónico de 16 m de largo por 2 de alto. Disponía de
700.000 elementos móviles y trabajaba en el sistema decimal. En
1946, el húngaro John Von Newmann propuso una modificación del
ENIAC. De acuerdo con ella, se construyó el E.D.V.A.C. en 1952,
que presentaba dos importantes modificaciones con respecto a las
máquinas anteriores: por un lado la aritmética binaria almacenada,
y por otro el programa también almacenado.
- Mauchly (1951)
introdujo en el censo el primer ordenador, tal y como hoy se
concibe. Era el UNIVAC I. El UNIVAC II apareció más tarde, y
estaba hecho de memorias de ferrita.
El término
generación se refiere a la tecnología y a los componentes con
los que se construyen las computadoras. Se distinguen cinco
generaciones:
- Primera generación
(1946-1958).
Se caracteriza por el
uso de las válvulas de vacío. Su velocidades de proceso se miden en
milisegundos (10-3). Sus circuitos eran semejantes a los
empleados entonces en la construcción de radios.
Si comparamos los
ordenadores de la primera generación con los actuales, se podría
decir que eran lentos, de gran tamaño, inflexibles, con necesidad de
controles muy estrictos en cuanto al suministro de energía eléctrica
y ventilación.
Comparados con los
equipos electromecánicos, los ordenadores de la primera generación,
tenían enormes ventajas sobre cualquier otro método de proceso de
datos, cuando era un gran volumen de información el que debía
procesarse en cortos períodos de tiempo.
Ordenadores de la
época: UNIVAC-I de la Sperry Rand, las series 600 y 700 de IBM y el
EDVAC.
- Segunda generación
(1958-1965).
Hasta aquel momento el
avance había sido relativamente lento debido a que los ordenadores
no sólo eran caros, sino que exigían mucho espacio y abundancia de
medios para diseñarlos y fabricarlos. La aparición del transistor,
que es un dispositivo en estado sólido capaz de adoptar la forma de
pequeños paralelepípedos, hizo cambiar la situación en gran medida.
El transistor surgió
en los laboratorios de Bell Telephone, en 1948, y se introdujo en
los ordenadores en 1958. Las nuevas máquinas fueron más pequeñas y
además aumentaron su velocidad de proceso -la velocidad se medía en
microsegundos (10-6)-. Sus circuitos eran más sencillos.
Las memorias se construían con ferrita, lo que permitía reducir el
tamaño de la máquina y aumentar a la vez su rapidez y capacidad de
proceso.
Con el ordenador de
esta generación se desarrollaron también almacenamientos secundarios
con grandes capacidades, impresoras de alta velocidad y, en general,
dispositivos de alta velocidad de transmisión (cintas magnéticas).
Aparecieron técnicas
matemáticas enfocadas a la resolución de problemas haciendo uso del
ordenador y los métodos de recuperación de la información se
innovaron.
Ordenadores de la
época: 1400 y 1700 de IBM, la 1107 de Sperry Rand y la 3500 de CDC.
- Tercera generación
(1965-1970).
La aparición de los
circuitos integrados, Small Scale Integration (SSI), Medium Scale
Integration (MSI) y Large Scale Integration (LSI), fueron la
revolución de los ordenadores. Estos circuitos integrados son del
tamaño de los transistores y contienen miles de componentes
elementales interconectados entre sí. Esto supuso reducir aún más el
tamaño de los ordenadores, incrementando el tiempo medio entre
averías de la unidad central.
La velocidad de
ejecución de las operaciones elementales pasó a medirse en
nanosegundos (10-9). Se desarrollaron dispositivos
periféricos más efectivos y unidades de almacenamiento secundario de
gran volumen con amplias facilidades de acceso (disco magnético).
Empezaron a usarse terminales remotas, se podía incluso consultar
información al instante desde dichas terminales y realizarse
transacciones en el momento.
Ordenadores de la
época: Serie 360 de IBM, la Spectra 70 de RCA, la serie 600 de GE,
la 200 de Honeywell, la UNIVAC 1108 y la 6600 de CDC.
- Cuarta generación.
Su desarrollo comenzó
en 1971 y continúa hasta la fecha aprovechando los avances
conseguidos con la microelectrónica. Los elementos principales de
los ordenadores de esta generación son los microprocesadores, que
son dispositivos de estado sólido, manufacturados sobre chips
de silicio que contienen miles de transistores, resistencias y demás
elementos de los circuitos electrónicos. Esta densidad de
componentes hace que los microprocesadores pertenezcan también a la
familia de los circuitos integrados.
Se emplean circuitos
integrados de grandes velocidades y se emplea el arseniuro de galio
en lugar del silicio.
Ordenadores de la
época: Se mantienen los mismos lenguajes de programación y
arquitecturas de la generación anterior (IBM 3081 o Fujitsu 380),
pero la tecnología VLSI (Very Large Scale Integration) permite
desarrollar máquinas como las LISP.
- Quinta generación.
El proyecto de esta
generación es el de producir ordenadores auténticamente inteligentes,
sistemas a los que el usuario se puede dirigir en lenguaje natural y
con los que se puede "conversar".
Los lenguajes de esta
generación, cuyo primer prototipo apareció en los 90, tienen las
siguientes características:
- Nueva tecnología de
fabricación, basada posiblemente en materiales distintos del silicio.
- Se sustituyen los lenguajes de alto nivel: COBOL, FORTRAN, etc.
por el PROLOG y LISP que poseen más recursos lógicos.
- Nuevas arquitecturas distintas a la de Von Neumann, tales como las
arquitecturas RISC (Reduced Instrution Set Computer) y CISC (Complex
Intruction Set Computer).
- Nuevos métodos de Entrada/Salida: identificación de lenguaje oral,
reconocimiento de formas, tratamiento de la información en lenguaje
oral.
- Inteligencia Artificial: se investiga sobre los sistemas expertos
que están dotados de conocimientos y normas para la resolución de
problemas, mediante deducción lógica.
|
|
|