11.2.1.4 Nombre de la Unidad: La historia de la computadora
Periodo: Cuarto
Tiempo: Semanas: 10 Horas: 10
Contenido Temático:
1. La historia de la computadora
1.1. Antigüedad
1.2. Siglo VIII
1.3. Siglo XVII
1.4. Siglo XVIII
1.5. Siglo XIX
1.6. Siglo XX
1.7. Siglo XXI
2. Generación de las computadoras
3. Procesar datos
4. Informática
5. Computadoras
6. C.P.U.
7. Memorias Principales
8. Periféricos de entrada y salida. Ranuras de Expansión
9. Funcionamiento de la PC.
10. Bits y Bytes
11. Medidas de almacenamiento
12. Sistemas Operativos
13. Sistemas operativos actuales
14. Tecnologías futuras
15. Virus
Evaluación:
· Conversatorio oral
· Elaboración de Talleres.
· Sustentación de los talleres en clase.
· Participación en clase
· Entregar copia de los archivos de las actividades desarrolladas en clase.
· Presentar carpeta o cuaderno con las actividades desarrolladas en clase.
Recursos:
· Tecnologías de bajo nivel
· La computadora
· Internet
· Video beam
· Tablero digital
Plan de mejoramiento:
Nombre de la unidad: ________________________________________________
Logros: _____________________________________________________
Actividades:
Para los estudiantes o alumnos que obtuvieron rendimiento bajo (menor que 3.0) se plantean las siguientes acciones de mejoramiento para presentar al final de cada unidad:
I. Organizar y presentar el portafolio de clase, acorde a las indicaciones dadas por el docente
II. Presentar el cuaderno actualizado
III. Sustentar de alguna de estas dos formas cada uno de los logros no alcanzados
o Sustentación escrita de los logros pendientes (examen escrito tipo ICFES)
o Sustentación verbal de los logros pendientes (exposiciones, examen oral)
11.2.1.5 Nombre de la Unidad: Aprendiendo a digitar
Periodo: Primero, Segundo, Tercero y Cuarto
Tiempo: Semanas: 40 Horas: 40
Contenido Temático:
1. Hardware
2. Elementos de entrada
3. Elementos de salida
4. El teclado “técnica práctica para aprender a digitar”
a. Reconocer el teclado
b. Técnica de digitación
c. Reglas para digitar correctamente
d. Fila guía “digitar con todos los dedos de ambas manos.”
e. Fila dominante “digitar con todos los dedos de ambas manos.”
f. fila inferior “digitar con todos los dedos de ambas manos.”
g. Fila superior “manejar el teclado con todos los dedos de ambas manos.”
h. Mayúsculas “digitar con todos los dedos de ambas manos.”
i. Letras acentuadas “digitar con todos los dedos de ambas manos.”
j. Palabras cortas “digitar con todos los dedos de ambas manos.”
5. Aprender a manejar Windows
a. Conceptos básicos
b. El Escritorio
c. El Explorador de Windows
d. La Búsqueda
e. La Papelera
f. Mis documentos
g. Reproductor de Windows Media
h. La ayuda de Windows
i. Crear carpetas
j. Internet Explorer
k. Copiar archivos
l. Mi PC
Plan de mejoramiento:
Nombre de la unidad: ________________________________________________
Logros: _____________________________________________________
Actividades:
Para los estudiantes o alumnos que obtuvieron rendimiento bajo (menor que 3.0) se plantean las siguientes acciones de mejoramiento para presentar al final de cada unidad:
I. Organizar y presentar el portafolio de clase, acorde a las indicaciones dadas por el docente
II. Presentar el cuaderno actualizado
III. Sustentar de alguna de estas dos formas cada uno de los logros no alcanzados
o Sustentación escrita de los logros pendientes (examen escrito tipo ICFES)
o Sustentación verbal de los logros pendientes (exposiciones, examen oral)
LA ANTIGUEDAD
HISTORIA DE LA COMPUTADORA
HISTORI DE LA COMPUTADORA
1983
2007
2008
EL SIGLO VIII
Así mismo, también es oscura para la ciudad de Badajoz la ocupación visigoda. Sin embargo, numerosos son los restos arqueológicos encontrados, demostrando la existencia de pobladores muy activos y en permanente desarrollo, principalmente artesanos y edificaciones, a tenor de las pruebas que aportan las pilastras, frisos, capiteles, columnas y otros elementos hallados. Hay investigadores que sitúan por esta zona a Hermenegildo, Benedictus- el último obispo godo de Badajoz- y a Don Rodrigo. Después de la fundación en la Época árabe, la Diócesis Pacense conocida en tiempos de los visigodos dejará Béjar para ubicarse definitivamente en Badajoz.
Formalmente el siglo XVII comprende los años 1601-1700 ambos incluidos, muchos lo llaman el "Siglo de la física" por las grandes aportaciones que hizo Isaac Newton dando origen a la física clásica.
El centro de España pierde un millón de habitantes, pero en la periferia se mantiene la población, por lo que en conjunto disminuye probablemente en un millón de habitantes en la centuria y cambia su distribución geográfica: en el futuro, el centro estará despoblado, excepto Madrid; y la periferia, densamente poblada.
Así, en la época de la expulsión de los moriscos (1609-1610) se estiman 8.485.000 habitantes, de ellos 1.430.000 en la Corona de Aragón, mientras que para 1717 se estiman 7.500.000 habitantes, 1.500.000 en la Corona de Aragón, es decir, los mismos o más que en 1610. La despoblación se había producido en el centro.
Al romper estos viejos moldes se permitió salirse de la rigidez de las estructuras lineales e imprimir nuevas formas de movimiento especialmente en el campo de las artes, donde podrían ser la pintura, escultura y arquitectura. Este adelanto de imprimir movimiento, rescatar las formas celestiales por medio de la ornamentación, y el paso de lo estático a lo dinámico se contempla como el estilo barroco, que es un estilo moderno que deja atrás al manierismo del siglo precedente.
El barroco que se presenta en diferentes manifestaciones artísticas incluida la literatura en sus dos vertientes culteranismo y conceptismo, permite arraigar a la sociedad de entonces a un nuevo estilo de vida, en el que se adapta y acepta vivir bajo situaciones en constante cambio.
SIGLO XIX
Según el calendario gregoriano vigente, el siglo XVIII comprende los años 1701-1800, ambos incluidos, de la era cristiana. En la historia occidental, el siglo XVIII también es llamado Siglo de las Luces, debido a que durante el mismo surgió el movimiento intelectual conocido como Ilustración. En ese marco, el siglo XVIII es fundamental para comprender el mundo moderno, pues muchos de los acontecimientos políticos, sociales, económicos, culturales e intelectuales del siglo han extendido su influencia hasta la actualidad.
De hecho, para la historia occidental, es el último de los siglos de la Edad Moderna, y el primero de la Edad Contemporánea, tomándose convencionalmente como momento de división entre ambas los años 1705 (Máquina de vapor), 1751 (L'Encyclopédie), 1776 (Independencia de Estados Unidos), o más comúnmente el 1789 (Revolución francesa).
Tras el caos político y militar vivido en el siglo XVII, el siglo XVIII, no carente de conflictos, verá un notable desarrollo en las artes y las ciencias europeas de la mano de la Ilustración, un movimiento cultural caracterizado por la reafirmación del poder de la razón humana frente a la fe y la superstición. Las antiguas estructuras sociales, basadas en el feudalismo y el vasallaje, serán cuestionadas y acabarán por colapsar, al tiempo que, sobre todo en Inglaterra, se inicia la Revolución industrial y el despegue económico de Europa. Durante dicho siglo, la civilización europea occidental afianzará su predominio en el mundo, y extenderá su influencia por todo el orbe.
La característica fundamental del siglo XIX (1801–1900) son sus fuertes cambios. Cambios anunciados y gestados en el pasado pero que se efectuarían. Cambios en todos los ámbitos de la vida y el conocimiento. Revoluciones de todas las índoles tendrían su lugar. La ciencia y la economía se retroalimentarían, el término "científico", acuñado en 1833 por William Whewell,1 2 sería parte fundamental del lenguaje de la época; la economía sufriría dos fuertes revoluciones industriales, la primera acaecida entre 1750 y 1840, y la segunda entre 1880 y 1914. En política, las nuevas ideas del anterior siglo sentarían las bases para las revoluciones burguesas, revoluciones que se explayarían por el mundo mediante el imperialismo y buscaría alianza con el movimiento obrero al que, para evitar su triunfo, le cederían el sufragio universal; en filosofía, surgirían los principios de la mayor parte de las corrientes de pensamiento contemporáneas, corrientes como el idealismo absoluto, el materialismo dialéctico, el nihilismo y el nacionalismo; el arte demoraría en iniciar el proceso de vanguardización pero quedaría cimentado en movimientos como el impresionismo.
SIGLO XX
El siglo XX se inició en el año 1901 y terminó en el año 2000. No obstante, es frecuente la concepción errada de que el siglo XX empezó en 1900 y finalizó en el año 1999. Fue el último siglo del II milenio. Se caracterizó por los avances de la tecnología; medicina y ciencia en general; fin de la esclavitud en los llamados países desarrollados; liberación de la mujer en la mayor parte de los países; pero también por crisis y despotismos humanos, que causaron efectos tales como las Guerras Mundiales; el genocidio y el etnocidio, las políticas de exclusión social y la generalización del desempleo y de la pobreza. Como consecuencia, se profundizaron las desigualdades en cuanto al desarrollo social, económico y tecnológico y en cuanto a la distribución de la riqueza entre los países, y las grandes diferencias en la calidad de vida de los habitantes de las distintas regiones del mundo. En los últimos años del siglo, especialmente a partir de 1989-1991 con el derrumbe de los regímenes colectivistas de Europa, comenzó el fenómeno llamado globalización o mundialización.
Al hacer balance de esta centuria, Walter Isaacson, director gerente de la revista Time declaró: “Ha sido uno de los siglos más sorprendentes: inspirador, espantoso a veces, fascinante siempre”. Según Gro Harlem Brundtland, ex primera ministra de Noruega, también ha recibido la denominación de “siglo de los extremismos, [...] en el que los vicios humanos han alcanzado niveles abismales”. En su opinión, se trata de “un siglo de grandes progresos [y, en algunos lugares,] crecimiento económico sin precedentes”, si bien las zonas urbanas míseras afrontaron un lúgubre panorama de “hacinamiento y enfermedades generalizadas vinculadas a la pobreza y al ambiente insalubre”.
En los albores del siglo XX, la dinastía manchú de China, el Imperio otomano y varios imperios europeos controlaban gran parte del mundo. Tan solo el Imperio británico dominaba una cuarta parte del planeta y de sus habitantes. Mucho antes de finalizar el siglo, tales imperios habían quedado relegados a los libros de historia. “Para 1945 —indica The Times Atlas of the 20th Century— había terminado la era del imperialismo.”
[editar]
[editar]
[editar]
[editar]
[editar]
[editar]
[editar]
[editar]
[editar]
[editar]
[editar]
El siglo XXI es el actual de acuerdo con el calendario gregoriano. Formalmente comprende los años comprendidos entre 2001 y 2100, ambos inclusive. Es el primer siglo del III milenio.1
El siglo XXI se caracteriza por el avance de la digitalización a nivel mundial. Este progreso ya se había iniciado a partir de la década de 1970 con la tercera revolución industrial. Sin embargo, a comienzos del siglo XXI, la digitalización experimentó un enorme cambio que dio lugar a nuevos dispositivos de almacenamiento de datos (memorias flash) y una mayor intensidad en la expansión de la telefonía móvil (iniciada en los años 80 del siglo XX), entre otras muchas características. En el campo de la tecnología también destacó el conocido como apagón analógico, así como la aparición, en 2005, del TDT o Televisión Digital Terrestre. En este siglo comienza a cobrarse verdadera conciencia del fenómeno conocido como cambio climático, que se ha convertido en una de las mayores preocupaciones internacionales; este problema ha motivado numerosas campañas de protesta, mientras, por parte de los Estados, se proponen medidas destinadas a lograr posibles soluciones, como el Protocolo de Kioto, acordado a finales del siglo XX (se concertó el 11 de diciembre de 1997, y se firmó entre el 16 de marzo de 1998 y el 15 de marzo de 1999 en la sede de la ONU). En el campo de la política demográfica, la globalización, de la que ya se habló en las últimas décadas del siglo XX, se ha intensificado notablemente.
En el contexto político y económico internacional, el siglo XXI está marcado desde el inicio por los ataques del 11 de septiembre de 2001 y la llamada "guerra contra el terrorismo" iniciada por los Estados Unidos; y también por la crisis económica de 2008, de alcance global, que continúa hasta nuestros días.
[editar]
[editar]
[editar]
[editar]
[editar]
[editar]
Principales obras:
[editar]
[editar]
Indice1. El Concepto de Datos
2. El Concepto de Información
3. Diferencia entre Datos e información
4. El Concepto de Procesamiento de Datos
5. Concepto de Procesamiento Distribuido y Centralizado
6. Estructura de Datos utilizados en el proceso electrónico de datos
7. Conclusion
8. Bibliografía
1. El Concepto de Datos
Datos son los hechos que describen sucesos y entidades."Datos" es una palabra en plural que se refiere a más de un hecho. A un hecho simple se le denomina "data-ítem" o elemento de dato.
Los datos son comunicados por varios tipos de símbolos tales como las letras del alfabeto, , movimientos de labios,
puntos y rayas, señales con la mano, dibujos, etc. Estos símbolos se pueden ordenar y reordenar de forma utilizable y se les denomina información.
Los datos son símbolos que describen condiciones, hechos, situaciones o valores. Los datos se caracterizan por no contener ninguna información. Un dato puede significar un número, una letra, un signo ortográfico o cualquier símbolo que represente una cantidad, una medida, una palabra o una descripción.
La importancia de los datos está en su capacidad de asociarse dentro de un contexto para convertirse en información. Por si mismos los datos no tienen capacidad de comunicar un significado y por tanto no pueden afectar el comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en información para ofrecer un significado, conocimiento, ideas o conclusiones.
2. El Concepto de Información
La información no es un dato conjunto cualquiera de ellos. Es más bien una de hechos significativos y pertinentes, para el organismo u organización que los percibe. La definición de información es la siguiente: Información es un conjunto de datos significativos y pertinentes que describan sucesos o entidades.
DATOS SIGNIFICATIVOS. Para ser significativos, los datos deben constar de símbolos reconocibles, estar completos y expresar una no ambigua.
Los símbolos de los datos son reconocibles cuando pueden ser correctamente interpretados. Muchos tipos diferentes de símbolos comprensibles se usan para transmitir datos.
La integridad significa que todos los datos requeridos para responder a una pregunta específica están disponibles. Por ejemplo, un de béisbol debe incluir el tanteo de ambos . Si se oye el tanteo "New York 6" y no oyes el del oponente, el anuncio será incompleto y sin sentido.
Los datos son inequívocos cuando el contexto es claro. Por ejemplo, el grupo de signos 2-x puede parecer "la cantidad 2 menos la cantidad desconocida llamada x" para un estudiante de álgebra, pero puede significar "2 x" a un vaquero que marca ganado. Tenemos que conocer el contexto de estos símbolos antes de poder conocer su significado.
Otro ejemplo de la necesidad del contexto es el uso de términos especiales en diferentes campos especializados, tales como la contabilidad. Los contables utilizan muchos términos de forma diferente al público en general, y una parte de un aprendizaje de contabilidad es aprender el lenguaje de contabilidad. Así los términos Debe y pueden significar para un contable no más que "derecha" e "izquierda" en una contabilidad en , pero pueden sugerir muchos tipos de ideas diferentes a los no contables.
DATOS PERTINENTES. Decimos que tenemos datos pertinentes (relevantes) cuando pueden ser utilizados para responder a preguntas propuestas.
Disponemos de un considerable número de hechos en nuestro entorno. Solo los hechos relacionados con las necesidades de información son pertinentes. Así la organización selecciona hechos entre sucesos y entidades particulares para satisfacer sus necesidades de información.
3. Diferencia entre Datos e información
Hasta el momento hemos supuesto que los datos que maneja una aplicación no son tan voluminosos y por lo tanto caben en memoria. Cuando recurrimos a archivos se debe a la necesidad de conservar datos después de que termina un programa, por ejemplo para apagar el computador.
Sin embargo, existen problemas en donde el volumen de datos es tan grande que es imposible mantenerlos en memoria. Entonces, los datos se almacenan en un conjunto de archivos, los que forman una base de datos. Una base de datos es por lo tanto un conjunto de archivos que almacenan, por ejemplo, datos con respecto al negocio de una empresa.
Cada archivo se forma en base a un conjunto de líneas y cada línea esta formada por campos de información. Todas las líneas de un mismo archivo tienen la misma estructura, es decir los mismos campos de información. Diferentes archivos poseen estructuras distintas, i.e. campos de información.
Por ejemplo, el archivo de postulantes post.dat, visto en capítulos anteriores, tiene la siguiente información:
Algunas definiciones
Recolección de datos:
Provee un vínculo para obtener la información interoperacionables racional y las parametrizaciones.
Almacenamiento de datos:
Las unidades de disco de la computadora y otros medios de almacenamiento externo permiten almacenar los datos a más largo plazo, manteniéndolos disponibles pero separados del circuito principal hasta que el microprocesador los necesita. Una computadora dispone también de otros tipos de almacenamiento.
La memoria de sólo lectura (ROM) es un medio permanente de almacenamiento de información básica, como las instrucciones de inicio y los procedimientos de entrada/salida. Asimismo, una computadora utiliza varios buffers (áreas reservadas de la memoria) como zonas de almacenamiento temporal de información específica, como por ejemplo los caracteres a enviar a la impresora o los caracteres leídos desde el teclado.
Procesamiento de datos:
Consiste en asegurar la veracidad e integridad de los datos que ingresan a un archivo. Existen numerosas técnicas de validación tales como: Digito verificador, chequeo de tipo, chequeo de rango.
5. Concepto de Procesamiento Distribuido y Centralizado
Procesamiento Centralizado:
En la década de los años 50’s las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes características:
• Un CPU
• Pequeña cantidad de RAM
• Dispositivos DC almacenamiento secundario (cintas)
• Dispositivos d salida (perforadoras de tarjetas)
• Dispositivos de entrada (lectores de tarjeta perforada)
Con el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en sofisticación,
• Aunque la industria continuaba siendo dominada por las computadoras grandes "mainframes". A medida que la computación evolucionaba, las computadoras, fueron capaces de manejar aplicaciones múltiples simultáneamente, convirtiéndose en procesadores centrales "hosts" a los que se les
Conectaban muchos periféricos y terminales tontas que consistían solamente de dispositivos de entrada/salida (monitor y teclado) y quizá poco espacio de almacenamiento, pero que no podían procesar por sí mismas. Las terminales locales se conectaban con el procesador central a través de interfaces seriales ordinarias de baja velocidad, mientras que las terminales remotas se enlazaban con
• El "host" usando módems y líneas telefónicas conmutadas. En este ambiente, se ofrecían velocidades de transmisión de 1200, 2400, o 9600 bps. Un ambiente como el descrito es lo que se conoce como procesamiento centralizado en su forma más pura "host/terminal". Aplicaciones características de este tipo de ambiente son:
• Administración de grandes tuses de datos integradas
• Algoritmos científicos de alta velocidad
• Control de inventarios centralizado
Al continuar la evolución de los "mainframes", estos se comenzaron a conectar a enlaces de alta velocidad donde algunas tareas relacionadas con las comunicaciones se delegaban a otros dispositivos llamados procesadores comunicaciones "Front End Procesos" (I7EP’s) y controladores de grupo "Cluster Controllers" (CC’s).
Procesamiento Distribuido:
El procesamiento centralizado tenía varios inconvenientes, entre los que podemos mencionar que un número limitado de personas controlaba el acceso a la información y a los reportes, se requería un grupo muy caro de desarrolladores de sistemas para crear las aplicaciones, y los costos de mantenimiento y soporte eran extremadamente altos. La evolución natural de la computación fue en el sentido del procesamiento distribuido, así las minicomputadoras (a pesar de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del procesamiento que tenían los "mainframes".
Ventajas
Existen cuatro ventajas del procesamiento de bases de datos distribuidas. La primera, puede dar como resultado un mejor rendimiento que el que se obtiene por un procesamiento centralizado. Los datos pueden colocarse cerca del punto de su utilización, de forma que el tiempo de comunicación sea mas corto. Varias computadoras operando en forma simultánea pueden entregar más volumen de procesamiento que una sola computadora.
Segundo, los datos duplicados aumentan su confiabilidad. Cuando falla una computadora, se pueden obtener los datos extraídos de otras computadoras. Los usuarios no dependen de la disponibilidad de una sola fuente para sus datos .Una tercera ventaja, es que los sistemas distribuidos pueden variar su tamaño de un modo más sencillo. Se pueden agregar computadoras adicionales a la red conforme aumentan el número de usuarios y su carga de procesamiento. A menudo es más fácil y más barato agregar una nueva computadora más pequeña que actualizar una computadora única y centralizada. Después, si la carga de trabajo se reduce, el tamaño de la red también puede reducirse.
Por último, los sistemas distribuidos se pueden adecuar de una manera más sencilla a las estructuras de la organización de los usuarios.
INFORMATICA
Indice1. El Concepto de Datos
2. El Concepto de Información
3. Diferencia entre Datos e información
4. El Concepto de Procesamiento de Datos
5. Concepto de Procesamiento Distribuido y Centralizado
6. Estructura de Datos utilizados en el proceso electrónico de datos
7. Conclusion
8. Bibliografía
1. El Concepto de Datos
Datos son los hechos que describen sucesos y entidades."Datos" es una palabra en plural que se refiere a más de un hecho. A un hecho simple se le denomina "data-ítem" o elemento de dato.
Los datos son comunicados por varios tipos de símbolos tales como las letras del alfabeto, , movimientos de labios,
puntos y rayas, señales con la mano, dibujos, etc. Estos símbolos se pueden ordenar y reordenar de forma utilizable y se les denomina información.
Los datos son símbolos que describen condiciones, hechos, situaciones o valores. Los datos se caracterizan por no contener ninguna información. Un dato puede significar un número, una letra, un signo ortográfico o cualquier símbolo que represente una cantidad, una medida, una palabra o una descripción.
La importancia de los datos está en su capacidad de asociarse dentro de un contexto para convertirse en información. Por si mismos los datos no tienen capacidad de comunicar un significado y por tanto no pueden afectar el comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en información para ofrecer un significado, conocimiento, ideas o conclusiones.
2. El Concepto de Información
La información no es un dato conjunto cualquiera de ellos. Es más bien una de hechos significativos y pertinentes, para el organismo u organización que los percibe. La definición de información es la siguiente: Información es un conjunto de datos significativos y pertinentes que describan sucesos o entidades.
DATOS SIGNIFICATIVOS. Para ser significativos, los datos deben constar de símbolos reconocibles, estar completos y expresar una no ambigua.
Los símbolos de los datos son reconocibles cuando pueden ser correctamente interpretados. Muchos tipos diferentes de símbolos comprensibles se usan para transmitir datos.
La integridad significa que todos los datos requeridos para responder a una pregunta específica están disponibles. Por ejemplo, un de béisbol debe incluir el tanteo de ambos . Si se oye el tanteo "New York 6" y no oyes el del oponente, el anuncio será incompleto y sin sentido.
Los datos son inequívocos cuando el contexto es claro. Por ejemplo, el grupo de signos 2-x puede parecer "la cantidad 2 menos la cantidad desconocida llamada x" para un estudiante de álgebra, pero puede significar "2 x" a un vaquero que marca ganado. Tenemos que conocer el contexto de estos símbolos antes de poder conocer su significado.
Otro ejemplo de la necesidad del contexto es el uso de términos especiales en diferentes campos especializados, tales como la contabilidad. Los contables utilizan muchos términos de forma diferente al público en general, y una parte de un aprendizaje de contabilidad es aprender el lenguaje de contabilidad. Así los términos Debe y pueden significar para un contable no más que "derecha" e "izquierda" en una contabilidad en , pero pueden sugerir muchos tipos de ideas diferentes a los no contables.
DATOS PERTINENTES. Decimos que tenemos datos pertinentes (relevantes) cuando pueden ser utilizados para responder a preguntas propuestas.
Disponemos de un considerable número de hechos en nuestro entorno. Solo los hechos relacionados con las necesidades de información son pertinentes. Así la organización selecciona hechos entre sucesos y entidades particulares para satisfacer sus necesidades de información.
3. Diferencia entre Datos e información
Hasta el momento hemos supuesto que los datos que maneja una aplicación no son tan voluminosos y por lo tanto caben en memoria. Cuando recurrimos a archivos se debe a la necesidad de conservar datos después de que termina un programa, por ejemplo para apagar el computador.
Sin embargo, existen problemas en donde el volumen de datos es tan grande que es imposible mantenerlos en memoria. Entonces, los datos se almacenan en un conjunto de archivos, los que forman una base de datos. Una base de datos es por lo tanto un conjunto de archivos que almacenan, por ejemplo, datos con respecto al negocio de una empresa.
Cada archivo se forma en base a un conjunto de líneas y cada línea esta formada por campos de información. Todas las líneas de un mismo archivo tienen la misma estructura, es decir los mismos campos de información. Diferentes archivos poseen estructuras distintas, i.e. campos de información.
Por ejemplo, el archivo de postulantes post.dat, visto en capítulos anteriores, tiene la siguiente información:
Algunas definiciones
Recolección de datos:
Provee un vínculo para obtener la información interoperacionables racional y las parametrizaciones.
Almacenamiento de datos:
Las unidades de disco de la computadora y otros medios de almacenamiento externo permiten almacenar los datos a más largo plazo, manteniéndolos disponibles pero separados del circuito principal hasta que el microprocesador los necesita. Una computadora dispone también de otros tipos de almacenamiento.
La memoria de sólo lectura (ROM) es un medio permanente de almacenamiento de información básica, como las instrucciones de inicio y los procedimientos de entrada/salida. Asimismo, una computadora utiliza varios buffers (áreas reservadas de la memoria) como zonas de almacenamiento temporal de información específica, como por ejemplo los caracteres a enviar a la impresora o los caracteres leídos desde el teclado.
Procesamiento de datos:
Consiste en asegurar la veracidad e integridad de los datos que ingresan a un archivo. Existen numerosas técnicas de validación tales como: Digito verificador, chequeo de tipo, chequeo de rango.
5. Concepto de Procesamiento Distribuido y Centralizado
Procesamiento Centralizado:
En la década de los años 50’s las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes características:
• Un CPU
• Pequeña cantidad de RAM
• Dispositivos DC almacenamiento secundario (cintas)
• Dispositivos d salida (perforadoras de tarjetas)
• Dispositivos de entrada (lectores de tarjeta perforada)
Con el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en sofisticación,
• Aunque la industria continuaba siendo dominada por las computadoras grandes "mainframes". A medida que la computación evolucionaba, las computadoras, fueron capaces de manejar aplicaciones múltiples simultáneamente, convirtiéndose en procesadores centrales "hosts" a los que se les
Conectaban muchos periféricos y terminales tontas que consistían solamente de dispositivos de entrada/salida (monitor y teclado) y quizá poco espacio de almacenamiento, pero que no podían procesar por sí mismas. Las terminales locales se conectaban con el procesador central a través de interfaces seriales ordinarias de baja velocidad, mientras que las terminales remotas se enlazaban con
• El "host" usando módems y líneas telefónicas conmutadas. En este ambiente, se ofrecían velocidades de transmisión de 1200, 2400, o 9600 bps. Un ambiente como el descrito es lo que se conoce como procesamiento centralizado en su forma más pura "host/terminal". Aplicaciones características de este tipo de ambiente son:
• Administración de grandes tuses de datos integradas
• Algoritmos científicos de alta velocidad
• Control de inventarios centralizado
Al continuar la evolución de los "mainframes", estos se comenzaron a conectar a enlaces de alta velocidad donde algunas tareas relacionadas con las comunicaciones se delegaban a otros dispositivos llamados procesadores comunicaciones "Front End Procesos" (I7EP’s) y controladores de grupo "Cluster Controllers" (CC’s).
Procesamiento Distribuido:
El procesamiento centralizado tenía varios inconvenientes, entre los que podemos mencionar que un número limitado de personas controlaba el acceso a la información y a los reportes, se requería un grupo muy caro de desarrolladores de sistemas para crear las aplicaciones, y los costos de mantenimiento y soporte eran extremadamente altos. La evolución natural de la computación fue en el sentido del procesamiento distribuido, así las minicomputadoras (a pesar de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del procesamiento que tenían los "mainframes".
Ventajas
Existen cuatro ventajas del procesamiento de bases de datos distribuidas. La primera, puede dar como resultado un mejor rendimiento que el que se obtiene por un procesamiento centralizado. Los datos pueden colocarse cerca del punto de su utilización, de forma que el tiempo de comunicación sea mas corto. Varias computadoras operando en forma simultánea pueden entregar más volumen de procesamiento que una sola computadora.
Segundo, los datos duplicados aumentan su confiabilidad. Cuando falla una computadora, se pueden obtener los datos extraídos de otras computadoras. Los usuarios no dependen de la disponibilidad de una sola fuente para sus datos .Una tercera ventaja, es que los sistemas distribuidos pueden variar su tamaño de un modo más sencillo. Se pueden agregar computadoras adicionales a la red conforme aumentan el número de usuarios y su carga de procesamiento. A menudo es más fácil y más barato agregar una nueva computadora más pequeña que actualizar una computadora única y centralizada. Después, si la carga de trabajo se reduce, el tamaño de la red también puede reducirse.
Por último, los sistemas distribuidos se pueden adecuar de una manera más sencilla a las estructuras de la organización de los usuarios.
Una computadora o computador (del inglés computer y este del latín computare -calcular), también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.
La arquitectura de Von Neumann describe una computadora con 4 secciones principales: la unidad aritmético lógica (ALU por sus siglas del inglés: Arithmetic Logic Unit), la unidad de control, la memoria central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses:
Una Unidad de estado sólido es un sistema de memoria no volátil. Están formados por varios chips de memoria NAND Flash en su interior unidos a una controladora que gestiona todos los datos que se transfieren. Tienen una gran tendencia a suceder definitivamente a los discos duros mecánicos por su gran velocidad y tenacidad. Al no estar formadas por discos en ninguna de sus maneras, no se pueden categorizar como tal, aunque erróneamente se tienda a ello.
El sistema operativo es una especie de caja de herramientas lleno de utilerías que sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.
En la actualidad se están empezando a incluir en las distribuciones donde se incluye el sistema operativo, algunos programas muy usados, debido a que es ésta una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.
Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de los primeros computadores, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas también usó los computadores para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar los computadores para hacer sus propios análisis. El descenso continuo de los precios de los computadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a emplear un gran número de pequeños computadores para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varios pequeños computadores en un solo lugar se llamaba torre de servidores[cita requerida].
Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. Nacen los computadores personales (PC), los que se hicieron famosos para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos, calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.
Al mismo tiempo, los pequeños computadores son casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.
Actualmente, los computadores personales son usados tanto para la investigación como para el entretenimiento (videojuegos), pero los grandes computadores aún sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.
Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o computadora personal y los llamados supercomputadores sea la Workstation o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo (traducido literalmente del inglés), se usa para dar nombre a equipos que, debido sobre todo a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permiten desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa. Una Workstation es, en esencia, un equipo orientado a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PC convencionales, que aún tienen componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. En estos casos, el software es el fundamento del diseño del equipo, el que reclama, junto con las exigencias del usuario, el diseño final de la Workstation.[cita requerida]
La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.
Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.
Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en IC. Los CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC individuales necesarios para un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos, y luego a miles.
En 1964, IBM introdujo su arquitectura de computador System/360, que fue usada en una serie de computadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles entre sí, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", ampliamente usado aún en los CPU modernos . La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en las computadoras modernas, como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro computador que sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía un CPU integrado únicamente por cuatro circuitos integrados LSI .
Los computadores basados en transistores tenían varias ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj del CPU de decenas de megahertz. Además, mientras que los CPU de transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de las supercomputadoras especializadas, como los hechos por Cray Inc.
La MP se comunica con el microprocesador de la CPU mediante el bus de direcciones. El ancho de este bus determina la capacidad que posea el microprocesador para el direccionamiento de direcciones en memoria.
En algunas oportunidades suele llamarse "memoria interna" a la MP, porque a diferencia de los dispositivos de memoria secundaria, la MP no puede extraerse tan fácilmente por usuarios no técnicos.
La MP es el núcleo del sub-sistema de memoria de un computador, y posee una menor capacidad de almacenamiento que la memoria secundaria, pero una velocidad millones de veces superior.
El contenido de las memorias no es otra cosa que dígitos binarios o bits (binary digits), que se corresponden con dos estados lógicos: el 0 (cero) sin carga eléctrica y el 1 (uno) con carga eléctrica. A cada uno de estos estados se le llama bit, que es la unidad mínima de almacenamiento de datos.
El microprocesador direcciona las posiciones de la RAM para poder acceder a los datos almacenados en ellas y para colocar los resultados de las operaciones.
Al "bloque de MP", suele llamarse memoria RAM, por ser éste el tipo de chips de memoria que conforman el bloque, pero se le asocian también el chip CMOS, que almacena al programa BIOS del sistema y los dispositivos periféricos de la memoria secundaria (discos y otros periféricos), para conformar el sub-sistema de memoria del computador.
Y Dispositivos Periféricos de Salida
Los Dispositivos de Entrada:
Estos dispositivos permiten al usuario del computador introducir datos, comandos y programas en el CPU. El dispositivo de entrada más común es un teclado similar al de las máquinas de escribir. La información introducida con el mismo, es transformada por el ordenador en modelos reconocibles. Los datos se leen de los dispositivos de entrada y se almacenan en la memoria central o interna. Los Dispositivos de Entrada, convierten la información en señales eléctricas que se almacenan en la memoria central.
(Ver fig. nº 2)
A este periférico se le llamó así por su parecido con un roedor.
Existen modelos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado.
Al igual que el teclado, el Mouse es el elemento periférico que más se utiliza en una PC (Aunque en dado caso, se puede prescindir de él).
Los "ratones" han sido los elementos que más variaciones han sufrido en su diseño.
Tipos de Mouse: Existen diferentes tecnologías con las que funciona el Mouse:
c) Micrófono: Los micrófonos son los transductores encargados de transformar energía acústica en energía eléctrica, permitiendo, por lo tanto el registro, almacenamiento, transmisión y procesamiento electrónico de las señales de audio. Son dispositivos duales de los altoparlantes, constituyendo ambos transductores los elementos mas significativos en cuanto a las características sonoras que sobre imponen a las señales de audio. (Ver fig. nº3)
Existen los llamados micrófonos de diadema que son aquellos, que, como su nombre lo indica, se adhieren a la cabeza como una diadema cualquiera, lo que permite al usuario mayor comodidad ya no necesita sostenerlo con las manos, lo que le permite realizar otras actividades.
d) Scanner: Es una unidad de ingreso de información. Permite la introducción de imágenes gráficas al computador mediante un sistema de matrices de puntos, como resultado de un barrido óptico del documento. La información se almacena en archivos en forma de mapas de bits (bit maps), o en otros formatos más eficientes como Jpeg o Gif.
Existen scanners que codifican la información gráfica en blanco y negro, y a colores. Así mismo existen scanners de plataforma plana fija (Cama Plana) con apariencia muy similar a una fotocopiadora, y scanners de barrido manual. Los scanners de cama plana pueden verificar una página entera a la vez, mientras que los portátiles solo pueden revisar franjas de alrededor de 4 pulgadas. Reconocen imágenes, textos y códigos de barras, convirtiéndolos en código digital.
Los exploradores gráficos convierten una imagen impresa en una de video (Gráficos por Trama) sin reconocer el contenido real del texto o las figuras. (Ver fig. nº 4)
e) Cámara Digital: se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos:
i) Tarjetas Perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm. (3 pulgadas) de ancho por 18 cm. (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas perforadas.
2.- Los Dispositivos de Salida:
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor.
Puntos a Tratar en un Monitor:
En nada se parecen las impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. (Ver fig. nº 10)
Hay Varios Tipos:
d) Auriculares: Son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza. (Ver fig. nº 12)
e) Bocinas: Cada vez las usa más la computadora para el manejo de sonidos, para la cual se utiliza como salida algún tipo de bocinas. Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad en watts que poseen.
f) Multimedia: Combinación de Hardware y Software que puede reproducir salidas que emplean diversos medios como texto, gráficos, animación, video, música, voz y efectos de sonido.
g) Plotters (Trazador de Gráficos): Es una unidad de salida de información que permite obtener documentos en forma de dibujo.
Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos colores de tinta en los rapidógrafos).
h) Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta.
I) Data Show (Cañón): Es una unidad de salida de información. Es básicamente una pantalla plana de cristal líquido, transparente e independiente. Acoplado a un retro proyector permite la proyección amplificada de la información existente en la pantalla del operador.
Como se ha podido observar existen muchos tipos de dispositivos que utiliza la computadora y que son indispensables para poder comunicarnos con la máquina. Un ejemplo muy claro lo es el Teclado y el Mouse.
A lo largo del tiempo, se ha demostrado que la tecnología avanza cada día más en busca de mejores cosas y mayor comodidad para el usuario.
Por ello debemos tener en cuenta como utilizar los dispositivos periférico del ordenador para obtener un mayor aprovechamiento de cada uno de estos y hacer nuestro trabajo más rápido y con la mayor comodidad posible, para lograr facilitar nuestras labores cotidianas en las ayuda de estas maquinas.







DISPOSITIVOS DE SALIDA








LA ANTIGUEDAD
Antigüedad
El término antigüedad puede designar:- en general, a la Edad Antigua, el período histórico transcurrido desde el descubrimiento de la escritura hasta el fin del Imperio Romano de Occidente.
- más precisamente, a la antigüedad clásica, el período transcurrido desde la época clásica de la Antigua Grecia hasta la fundación del Imperio Romano.
- en derecho, a la antigüedad administrativa, el período que alguien ha permanecido en un empleo, un cargo, un fichero o una condición administrativa.
- en el arte, a una antigüedad es un objeto que es valioso por su prolongada existencia.
- al municipio español de Antigüedad en la provincia castellano-leonesa de Palencia.
- en el ámbito laboral, antigüedad indica el tiempo que un trabajador lleva vinculado a una empresa o a una institución.
HISTORIA DE LA COMPUTADORA
Antigüedad
El término antigüedad puede designar:- en general, a la Edad Antigua, el período histórico transcurrido desde el descubrimiento de la escritura hasta el fin del Imperio Romano de Occidente.
- más precisamente, a la antigüedad clásica, el período transcurrido desde la época clásica de la Antigua Grecia hasta la fundación del Imperio Romano.
- en derecho, a la antigüedad administrativa, el período que alguien ha permanecido en un empleo, un cargo, un fichero o una condición administrativa.
- en el arte, a una antigüedad es un objeto que es valioso por su prolongada existencia.
- al municipio español de Antigüedad en la provincia castellano-leonesa de Palencia.
- en el ámbito laboral, antigüedad indica el tiempo que un trabajador lleva vinculado a una empresa o a una institución.
HISTORI DE LA COMPUTADORA
Siglo XVII
- El matemático e ingeniero Muhammad ibn Musa al-Khwarizmi, inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema que se plantea.
- Justo antes de morir, el matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "Napier Bones". Los Huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.
- La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande. Se comisionó un Reloj Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego antes de que se terminara.
- La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.
- Blaise Pascal inventa la Pascalina en 1645. Con esta máquina, los datos se representaban mediante las posiciones de los engranajes. La Pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto.
- La primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la Pascalina, este aparato no tenía avance automático de columnas.
- La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried Leibniz. El aparato era una partida de la Pascalina; mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad.
Siglo XVIII
1769- El Jugador de Ajedrez Autómata, "El Turco", fue inventado por el Barón Wolfgang von Kempelen, un noble húngaro. Pretendió ser una máquina pura, incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión óptica bien planteada que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí, era una sensación dondequiera que iba pero se destruyó en un incendio en 1856.
- Se inventó la primera máquina lógica por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.
Siglo XIX
1801- El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.
- La primera calculadora de producción masiva se distribuyó por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.
- Charles Babbage completó su Artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular valores de funciones polinómicas mediante el método de las diferencias. El Artefacto de la Diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "Artefacto Analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el "Padre de las Computadoras Modernas".
- Fue inicialmente descrita la máquina analítica de Charles Babbage. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores.
- Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.
- El desarrollo del Álgebra de Boole fue publicado por el lógico inglés George Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.
- La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.
- Un comité de la Asociación Británica para el avance de la ciencia recomendó no construir la máquina analítica, por lo que Babbage no tuvo acceso a fondos del gobierno.
- Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar que un español podía inventar tanto como un americano.
- A los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.Se tardaba tanto en hacer el censo debido a la llegada masiva de inmigrantes.
- Dorr Felt desarrolló su Comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.
- La primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario", como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron.
Siglo XX
1906- El primer tubo de vacío fue inventado por el estadounidense, Lee De Forest. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930.
- El primer circuito multivibrador o biestable (en léxico electrónico flip-flop) fue desarrollado por los inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras.
- Walther Bothe construyó una puerta lógica AND para usarla en experimentos físicos, por lo cual recibió el premio Nobel de física en 1954.
- Se fundan los laboratorios Bell.
- Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales.
- Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación.
- Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo.
- Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora que podía manejar números complejos.
- La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.
- John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer").
- Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken.
- El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del Mark II. Erróneamente se cree que de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra desde 1889.
- Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una librería de libros y películas.
- Se construye en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primera computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200kW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo.
- Se inventa el transistor, en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley.
- Fue desarrollada la primera memoria, por Jay Forrester, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.
- Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.
- Comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado.
- Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I.
- El Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica.
- Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural.
- IBM fabricó su primera computadora escala industrial, la IBM 650
- Se amplía el uso del lenguaje ensamblador para la programación de las computadoras.
- Se crean memorias a base de magnetismo (conocidas como memorias de núcleos).
- Se desarrolla el lenguaje de programación de alto nivel FORTRAN.
- Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial.
- Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.
- Es puesta a la venta por parte de IBM la primera impresora de matriz de puntos.
- Comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
- El primer circuito integrado se construyó por Jack S. Kilby.
- La organización ARPA es creada como consecuencia tecnológica de la llamada Guerra Fría.
- Se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
- Aparece ALGOL, el primer lenguaje de programación estructurado y orientado a los procedimientos.
- Se crea el primer compilador de computador.
- C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.
- Kenneth Iverson inventa el lenguaje de programación APL en IBM.
- Aparece el concepto de paginación de memoria, descrito por T. Kilburn y D. J. Howart.
- Los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT.
- El primer compilador autocontenido, es decir, capaz de compilar su propio código fuente fue el creado para Lisp por Hart y Levin en el MIT.
- Un equipo de la Universidad de Manchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año.
- El estudiante del MIT Steve Russell escribe el primer juego de computadora, llamado Spacewar!.
- Un comité Industria-Gobierno define el código estándar de caracteres ASCII.
- El primer minicomputador comercialmente exitoso es distribuido por DEC (Digital Equipment Corporation).
- La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
- Aparece el CDC 6600, la primera supercomputadora comercialmente disponible.
- Se desarrolla el lenguaje BASIC (el Dartmouth BASIC), John George Kemeny y Thomas Eugene Kurtz en el Dartmouth College
- Gordon Moore publica la famosa Ley de Moore.
- La lógica difusa, diseñada por Lofti Zadeh, se usó para procesar datos aproximados.
- J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.
- Los algoritmos de exclusión mutua (sistemas operativos) fueron tratados por primera vez en los clásicos documentos de Dijkstra.
- Aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada.
- Los primeros programas exitosos de ajedrez fueron desarrollados por Richard Greenblatt en el MIT.
- Es inventado el diskette (disco flexible) en IBM por David Noble, bajo la dirección de Alan Shugart.
- Robert Noyce y Gordon Moore fundan la corporación Intel.
- El protocolo de comunicaciones NCP fue creado para controlar la red ARPANET.
- La primera minicomputadora de 16-bit es distribuida por la Data General Corporation.
- Se desarrolla en los laboratorios Bell el lenguaje de programación B cuyos aportes fueron mayoritariamente de Ken Thompson y Dennis Ritchie.
- Nace el sistema operativo UNICS en los laboratorios Bell de AT&T por un grupo de empleados de dicho laboratorio, entre los que se encuentran Ken Thompson, Dennis Ritchie y Douglas Mcllroy.
- El sistema UNICS, es renombrado como Unix.
- El primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc.
- Se publica el primer modelo de base de datos relacional, por E.F. Codd.
- El profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal.
- Brinch Hansen utiliza por primera vez la comunicación interprocesos en el sistema RC 400.
- Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1Kbits).
- Se presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.
- Ray Tomlinson crea el primer programa para enviar correo electrónico, como consecuencia, la arroba se usa por primera vez con fines informáticos.
- Un grupo de investigadores del MIT presentaron la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP).
- Texas Instruments vende la primera calculadora electrónica portátil.
- Aparecen los disquetes de 5 1/4 pulgadas.
- Se reconoce el primer virus informático, creado por Robert Thomas Morris. Atacó a una máquina IBM Serie 360 y fue llamado Creeper.
- Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C en los Laboratorios Bell.
- Nolan Bushnell y Ted Dabney fundan la Atari.
- Intel desarrolla y pone a la venta el procesador 8008.
- El concepto de región crítica fue sugerido por C. A. R. Hoare y Per Brinch Hansen.
- ARPA cambia su nombre por DARPA.
- Es creado el protocolo TCP por Vint Cerf y Robert Kahn.
- Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN).
- Gary Kildall crea el sistema operativo CP/M, en base al cual se desarrolla posteriormente, de manera polémica, MS-DOS, suponiendo una violación a los derechos de autor (copyright) del CP/M.
- En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.
- Se funda la empresa Microsoft.
- Se funda la empresa Apple.
- Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.
- Se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer).
- Dan Bricklin crea la primera hoja de cálculo, más tarde sería denominada VisiCalc.
- Aparece el juego Pacman creado por Toru Iwatani de la empresa Namco.
- Surge el primer prototipo de Computadora de Instrucción Reducida (RISC), desarrollado por un grupo de investigación en IBM.
- La empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000.
- Se desarrolla el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell, llamado Bellmac-32.
- Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
- Se termina de definir el protocolo TCP/IP.
- Apple presenta el primer computador personal que se vende a gran escala, el apple II.
- Sony crea los disquetes de 3 1/2 pulgadas.
- La Asociación Internacional MIDI publica el MIDI.
- Se funda Compaq Computer Corporation, una compañía de computadoras personales, por Rod Canion, Jim Harris y Bill Murto.
1983
- Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.
- Compaq (Compaq Computer Corporation) fabrica el primer clon PC IBM compatible, el Compaq portable.
- ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet.
- Se anuncia públicamente el proyecto GNU iniciado por Richard Stallman.
- Aparece el lenguaje de programación C++ diseñado por Bjarne Stroustrup.
- Nace el primer sistema operativo de Sun llamado SunOS.
- Aparece el famoso Lotus 1-2-3, un programa de hoja de cálculo realizado por la compañía Lotus Software.
- El sistema DNS consistía de 1000 hosts.
- Se funda Borland.
- IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5.795 dólares.
- Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox.
- Las compañías Philips y Sony crean los CD-Roms para computadores.
- Se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix.
- Aparece el lenguaje LaTeX para procesamiento de documentos.
- Hewlett-Packard lanza su popular impresora LaserJet.
- Leonard Bosack y Sandra Lerner fundan Cisco Systems que es líder mundial en soluciones de red e infraestructuras para Internet.
- Microsoft presenta el sistema operativo Windows 1.0.
- Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro.
- Adobe crea el PostScript.
- El ruso Alexey Pazhitnov crea el juego Tetris.
- Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.
- Aparece el programa de cálculo algebraico de computadora MathCad.
- Se registra la primera patente base de codificación de lo que hoy conocemos como MP3.
- Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, usaba microprocesador de 8 MHz y 10MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido.
- Se desarrolla la primera versión del actual protocolo X11.
- Larry Wall crea el lenguaje de programación Perl.
- El proyecto GNU crea el conjunto de compiladores llamado "GNU Compiler Collection".
- Compaq introdujo la primera PC basada en el nuevo microprocesador de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como la era de los clones de PC.
- Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive.
- Stephen Wolfram y su equipo sacan al mercado la primera versión del programa Mathematica.
- Aparece el primer documento que describe lo que hoy se conoce como firewalls.
- Aparece el estándar XMS.
- Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.
- T. E. Anderson estudia las cuestiones sobre el rendimiento de las hebras o hilos en sistemas operativos (threads).
- Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
- Se construye el primer prototipo de procesador óptico en AT&T (Laboratorios de Bell).
- Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
- Comienza a popularizarse la programación orientada a objetos.
- Surge la primera versión del estándar Unicode.
- Aparece la primera versión de Adobe Premiere.
- Compaq puso a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los 90's en vender una PC de menos de $1,000. Compaq se convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.
- Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el nombre AXP, como reemplazo para la serie de microcomputadores VAX que comúnmente utilizaban el sistema operativo VMS y que luego originaría el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como el más rápido del mundo.
- Microsoft lanza Windows 3.1.
- Aparece la primera versión del sistema operativo Solaris.
- GNU comienza a utilizar el núcleo Linux.
- Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation).
- Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT.
- Se crea la lista TOP500 que recopila los 500 ordenadores más potentes de la tierra.
- Marc Andreessen crea el famoso navegador web Netscape Navigator.
- Es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios escritos en el lenguaje C por el programador danés-canadiense Rasmus Lerdorf.
- Lanzamiento de Windows 95 por parte de Microsoft.
- Aparece la primera versión de MySQL.
- Inicia el desarrollo del servidor Apache.
- La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems.
- Se presenta públicamente el lenguaje de programación Ruby.
- Se especifica la versión 1.5 del DVD, base actual del DVD.
- Se publica la primera versión del navegador web Opera.
- Se inicia el proyecto KDE.
- La tecnología de DjVu fue originalmente desarrollada en los laboratorios de AT&T.
- Aparece la primera versión de SuperCollider.
- Sabeer Bhatia y Jack Smith fundan HotMail.
- Es creado reproductor multimedia Winamp, cuya distribución es realizada gratuitamente por la empresa estadounidense Nullsoft.
- Aparece la primera versión pública de FlightGear.
- Spencer Kimball y Peter Mattis crean la inicial librería GTK+.
- Es lanzado al mercado el sistema Windows 98 por parte de Microsoft.
- Compaq adquirió Digital Equipment Corporation, la compañía líder en la anterior generación de las computadoras durante los años 70 y principios de los 80. Esta adquisición convertiría a Compaq en el segundo más grande fabricante de computadoras, en términos de ingresos.
- Larry Page y Sergey Brin fundan Google Inc.
- Aparece el entorno de escritorio GNOME.
- Se publica la primera versión de MSN Messenger.
- Surge Mac OS 9.
Siglo XXI
2000- Es presentado el prototipo de computador cuántico construido por un equipo de investigadores de IBM.
- Es lanzado el sistema operativo Windows 2000 por Microsoft.
- Es lanzado el sistema operativo Windows Me por Microsoft.
- Lanzamiento de Mac OS X.
- Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO.
- Se lanza el sistema operativo Windows XP por parte de Microsoft.
- Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix.
- Puesta en marcha del supercomputador Earth Simulator que sería el ordenador más potente según el TOP500.
- Los usuarios de Internet con conexión de banda ancha superan a los usuarios de internet con conexión vía módem en la mayoría de países desarrollados.
- Se lanza el programa Google Earth.
- Lanzamiento de Windows XP Media Center Edition
- Puesta en funcionamiento del supercomputador MareNostrum en el BSC.
- Creación de YouTube.
- Lanzamiento del sistema operativo de Microsoft Windows Vista
2007
- La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada.
- La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5
2008
- Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más delgada del mundo en ese momento.
- Apple lanza el móvil más revolucionario de la historia en toda Europa y América, el iPhone 3G .
- Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para móviles.
- Lanzamiento del navegador Google Chrome.
- Lanzamiento de KDE 4.0.
- El supercomputador Roadrunner de IBM es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.
- Debian GNU/Linux 5.0
- KDE 4.2 RC
- El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7.
- Se espera el lanzamiento de Google Chrome OS, un sistema operativo creado por la empresa Google y basado en Linux.
- IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz
- Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora.
- Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz
EL SIGLO VIII
Así mismo, también es oscura para la ciudad de Badajoz la ocupación visigoda. Sin embargo, numerosos son los restos arqueológicos encontrados, demostrando la existencia de pobladores muy activos y en permanente desarrollo, principalmente artesanos y edificaciones, a tenor de las pruebas que aportan las pilastras, frisos, capiteles, columnas y otros elementos hallados. Hay investigadores que sitúan por esta zona a Hermenegildo, Benedictus- el último obispo godo de Badajoz- y a Don Rodrigo. Después de la fundación en la Época árabe, la Diócesis Pacense conocida en tiempos de los visigodos dejará Béjar para ubicarse definitivamente en Badajoz.
SIGLO XVII
Siglos: | Siglo XVI Siglo XVII Siglo XVIII |
Décadas: | Años 1600 Años 1610 Años 1620 Años 1630 Años 1640 Años 1650 Años 1660 Años 1670 Años 1680 Años 1690 |
Tabla anual del siglo XVII |
Años 1600
La ronda de noche o La compañía militar del capitán Frans Banning Cocq, 1642. Óleo sobre lienzo; expuesto en el Rijksmuseum, de Ámsterdam.
- 1601: La Batalla de Kinsale, una de las batallas más importantes de la historia Irlandesa.
- 1602: Se funda la Compañía Holandesa de las Indias Orientales, su éxito contribuyó al Siglo de Oro holandés.
- 1603: Muere Isabel I de Inglaterra y es sucedida por su primo el rey Jacobo VI de Escocia, uniendo las coronas de Escocia e Inglaterra.
- 1603: Tokugawa Ieyasu toma el control de Japón y establece Shogunato Tokugawa, que gobierna el país hasta 1868.
- 1603-23: Después de la modernización de su ejército, Abbas I expande el Imperio Safávida capturando territorio de los Otomanos y Portugueses.
- 1605: La Conspiración de la pólvora falla en Inglaterra. Se publica la primera parte de El Quijote.
- 1606: La larga guerra entre el Imperio otomano y Austria se termina con la Paz de Zsitvatorok.
- 1606: El capitán Willem Janszoon y su tripulación a bordo de la nave Duyfken de la Compañía Holandesa de las Indias Orientales, se convierten en los primeros europeos que avistan y desembarcan en Australia.
- 1607: Se funda Jamestown, Virginia, que se convierte en la primera colonia inglesa permanente en Norteamérica.
- 1608: Se funda la Ciudad de Quebec por Samuel de Champlain, en Nueva Francia (actual Canadá).
- 1609: Los Países Bajos y España, aceptan la Tregua de los Doce Años en la Guerra de los Ochenta Años.
- 1609: Pedro de Peralta, más tarde gobernador de Nuevo México, establece el asentamiento de Santa Fe.
- 1609: Maximiliano I, duque y elector de Baviera establece la Liga Católica.
[editar] Años 1610
- 1613: El Tiempo de Problemas en Rusia termina con la creación de la Casa de los Románov que estuvo en vigencia hasta 1917.
- 1615: Se publica la segunda parte de El Quijote.
- 1616: Los últimos moriscos son expulsados de España.
- 1618: La Rebelión bohemia precipita la Guerra de los treinta años, que devasta Europa entre 1618 y 1648.
- 1618: Los Manchúes comienzan a invadir China. Su conquista terminará derribando a la Dinastía Ming.
[editar] Años 1620
- 1620: El Emperador Fernando II de Habsburgo derrota a los bohemios rebeldes en la Batalla de la Montaña Blanca.
- 1620: Los Peregrinos puritanos llegan en el Mayflower a Plymouth Rock, Cabo Cod, Nueva Inglaterra.
- 1624-42: En calidad de primer ministro, el Cardenal Richelieu centraliza el poder en Francia.
- 1625: Nueva Ámsterdam es fundada por la Compañía Holandesa de las Indias Occidentales en Norteamérica.
- 1626: Se termina la Basílica de San Pedro en el Vaticano.
- 1627: El Cardenal Richelieu establece el asedio a La Rochelle protestante que finalmente se rinde.
- 1629: El Cardenal Richelieu se alía con las fuerzas protestantes suecas en la Guerra de los treinta años para contrarrestar la expansión de Fernando II de Habsburgo.
[editar] Años 1630
- 1632: La Batalla de Lützen, muerte del rey de Suecia Gustavo II Adolfo.
- 1633: Galileo Galilei llega a Roma para su juicio ante la Inquisición.
- 1634: Batalla de Nördlingen con victoria católica como resultado.
- 1635: empieza la Guerra franco-española
- 1639-55: Guerras de los Tres Reinos, guerras civiles en toda Escocia, Irlanda e Inglaterra.
[editar] Años 1640
- 1640: El rey Carlos I de Inglaterra se ve obligado a convocar al Parlamento, debido a la revuelta de los escoceses.
- 1640-68: La guerra de Restauración portuguesa lleva al fin del gobierno de Portugal bajo la Casa de Austria.
- 1640: La tortura queda prohibida en Inglaterra.
- 1641: El shogunato Tokugawa instituye el sakoku; los extranjeros son expulsados y nadie está autorizado a entrar o salir de Japón.
- 1641: La rebelión irlandesa.
- 1642: El explorador holandés Abel Janszoon Tasman hace el primer avistamiento europeo registrado de Nueva Zelanda.
- 1642-49: Guerra Civil Inglesa; Carlos I es decapitado por Cromwell .
- 1644: La conquista Manchú de China pone fin a la Dinastía Ming. La posterior Dinastía Qing regiría hasta 1912.
- 1644-74: Comienza la guerra de Char Bouba.
- 1648: La Paz de Westfalia pone fin a la Guerra de los Treinta Años y a la Guerra de los Ochenta Años, que marca el fin de España y el Sacro Imperio Romano como las mayores potencias europeas.
- 1648-53: Fronda, guerra civil en Francia.
- 1648-67: La guerra El Diluvio deja a Polonia en ruinas.
- 1648-69: Los Otomanos capturan Creta a los Venecianos tras el Sitio de Candía.
- 1648: Después de Shah Jahan, el Taj Mahal es completado por su hijo Aurangzeb como gobernante del Imperio mogol.
- 1649: La gran plaga de Sevilla.
- 1649-53: conquista de Irlanda por Cromwell.
[editar] Años 1650
- 1652: La Ciudad del Cabo es fundada por la Compañía Holandesa de las Indias Orientales en Sudáfrica.
- 1652: Comienzan las Guerras anglo-holandesas.
- 1655-61: Las Guerras del Norte se unen al ascenso de Suecia como una gran potencia.
[editar] Años 1660
- 1660: La Commonwealth de Inglaterra termina y la monarquía regresa durante la Restauración inglesa.
- 1660: Se funda la Real Sociedad de Londres para la mejora del conocimiento natural.
- 1661: Comienza el reinado del Emperador Kangxi de China.
- 1662: Koxinga captura Taiwán de los holandeses y funda el Reino de Tungning. Reina hasta 1683.
- 1662: Nace Jacques Aymar-Vernay, que más tarde reintroducirá la radiestesia al uso popular en Europa.
- 1663: Francia tiene plenamente el control político y militar sobre sus posesiones coloniales en Nueva Francia. Hooke descubre en el microscopio las células.
- 1664: Las tropas británicas capturan Nueva Ámsterdam, renombrándola Nueva York.
- 1665: Gran Plaga de Londres.
- 1665: Portugal derrota al Reino del Congo.
- 1666: El Gran Incendio de Londres.
- 1667-99: La Gran Guerra turca detiene la expansión del Imperio otomano en Europa.
- 1668: El Tratado de Paz de Lisboa entre España y Portugal reconoce a Portugal como país independiente.
[editar] Años 1670
- 1670: La Compañía de la Bahía de Hudson es fundada en Canadá.
- 1672-76: Guerra polaco-otomana.
- 1672-78: Guerra Franco-Holandesa.
- 1674: El Imperio Maratha es fundado en la India por Shivaji.
- 1676: Rusia y el Imperio otomano comienzan las Guerras Ruso-Turcas.
[editar] Años 1680
- 1680: La revuelta de los indios Pueblo llevó españoles a Nuevo México hasta 1692.
- 1681: Extinción del dodo.
- 1682: Pedro el Grande se convierte en gobernante de Rusia (exclusivo zar en 1696).
- 1682: La Salle explora la longitud del río Misisipi y reclama Luisiana para Francia.
- 1683: China conquista el Reino de Tungning y anexiona Taiwán.
Soldado tártaro de Crimea peleando con un soldado de la Mancomunidad de Polonia-Lituania. Esa frontera se mantuvo en estado semi-permanente de guerra hasta el siglo XVIII.
- 1683: La Batalla de Viena termina la hegemonía del Imperio otomano en el sudeste de Europa.
- 1685: El Edicto de Fontainebleau persigue al Protestantismo en Francia.
- 1687: Isaac Newton publica Philosophiae Naturalis Principia Mathematica.
- 1688-89: Después de la Gloriosa Revolución, Inglaterra se convierte en una monarquía constitucional y la República Holandesa entra en declive.
- 1685-97: La Gran Alianza trata de detener la expansión francesa durante la Guerra de los Nueve Años.
- 1689: El Tratado de Nerchinsk establece una frontera entre Rusia y China.
[editar] Años 1690
- 1691: Firma del Tratado de Limerick que pone fin a la Guerra Guillermita de Irlanda
- 1692: Se llevan a cabo los juicios por brujería en Salem, Massachusetts.
- 1693: La hambruna en Francia mata a dos millones de personas.
- 1696: La hambruna en Finlandia elimina casi un tercio de la población.
- 1700: Muere el rey Carlos II extinguiéndose la dinastía Habsburgo o Casa de Austria en España.
[editar] Demografía y estadística en España
Véase también: Evolución de la población española en la época precensal
La población del centro de España, la más numerosa densa y pujante y con la mayor densidad de ciudades grandes y medias, empieza a declinar desde 1580 y tiene un descenso prolongado durante el siglo XVII, debido entre otras causas a la emigración americana, las numerosas epidemias, un índice de celibato de hasta el 10% de la población y a la expulsión de los moriscos. La cornisa cantábrica y Cataluña mantienen algún crecimiento.El centro de España pierde un millón de habitantes, pero en la periferia se mantiene la población, por lo que en conjunto disminuye probablemente en un millón de habitantes en la centuria y cambia su distribución geográfica: en el futuro, el centro estará despoblado, excepto Madrid; y la periferia, densamente poblada.
Así, en la época de la expulsión de los moriscos (1609-1610) se estiman 8.485.000 habitantes, de ellos 1.430.000 en la Corona de Aragón, mientras que para 1717 se estiman 7.500.000 habitantes, 1.500.000 en la Corona de Aragón, es decir, los mismos o más que en 1610. La despoblación se había producido en el centro.
[editar] Mientras tanto, en el resto del mundo...
Se logra escribir el teorema del coseno como se lo conoce actualmente.[editar] Cultura del siglo XVII
El siglo XVII es de un esplendor sin parangón, debido a que permite este tiempo desligarse de las ataduras provenientes de la Edad Media. El Renacimiento del siglo XVI es la puerta de entrada para que en los 100 años que corrieron de 1600 a 1700 la sociedad pudiese zafarse del viejo molde que implantaba métodos rígidos de comportamiento y actuación especialmente impuestos por la Iglesia.Al romper estos viejos moldes se permitió salirse de la rigidez de las estructuras lineales e imprimir nuevas formas de movimiento especialmente en el campo de las artes, donde podrían ser la pintura, escultura y arquitectura. Este adelanto de imprimir movimiento, rescatar las formas celestiales por medio de la ornamentación, y el paso de lo estático a lo dinámico se contempla como el estilo barroco, que es un estilo moderno que deja atrás al manierismo del siglo precedente.
El barroco que se presenta en diferentes manifestaciones artísticas incluida la literatura en sus dos vertientes culteranismo y conceptismo, permite arraigar a la sociedad de entonces a un nuevo estilo de vida, en el que se adapta y acepta vivir bajo situaciones en constante cambio.
[editar] Personas relevantes
[editar] Política
- Albrecht von Wallenstein (1583 - 1634): Militar y político bohemio.
- Ana I de Gran Bretaña (1665 - 1714): Reina de Inglaterra, Irlanda y Escocia.
- Ana de Austria (1601 - 1666): Infanta de España y reina consorte de Francia.
- Aurangzeb (1618 - 1707): Emperador mogol de la India.
- Cardenal Mazarino (1602 - 1661): Cardenal y político francés.
- Cardenal Richelieu (1585 - 1642): Cardenal y político francés.
- Carlos I de Inglaterra (1600 - 1649): Rey de Inglaterra, Escocia e Irlanda.
- Carlos II de España (1665 - 1700): Rey de España, último de la Casa de Austria.
- Carlos II de Inglaterra (1630 - 1685): Rey de Inglaterra, Escocia e Irlanda.
- Cristina de Suecia (1626 - 1681): Reina de Suecia.
- Emperador Kangxi (1654 - 1722): Tercer emperador chino de la dinastía Qing.
- Emperador Shunzhi (1638 - 1661): Segundo emperador chino de la dinastía Qing.
- Eugenio de Saboya (1663 - 1736): Militar austríaco de origen francés.
- Felipe III de España (1578 - 1621): Rey de España.
- Felipe IV de España (1605 - 1665): Rey de España.
- Francisco de Sandoval y Rojas (1553 - 1625): Duque de Lerma y primer ministro de Felipe III.
- Gabriel Bethlen (1580 - 1629): Príncipe de Transilvania de origen húngaro.
- Gaspar de Guzmán (1587 - 1645): Conde-Duque de Olivares, militar y político español.
- Guillermo III de Inglaterra (1650 - 1702): Rey de Inglaterra, Escocia e Irlanda.
- Gustavo II Adolfo de Suecia (1594 - 1632): Rey de Suecia.
- Hung Taiji (1592 - 1643): Emperador chino, fundador de la dinastía Qing.
- Leopoldo I de Habsburgo (1640 - 1705): Emperador del Sacro Imperio Romano Germánico.
- Luis XIII de Francia (1601 - 1643): Rey de Francia.
- Luis XIV de Francia (1638 - 1715): Rey de Francia.
- María de Médici (1575 - 1642): Reina de Francia.
- Oliver Cromwell (1599 - 1658): Político inglés.
- Pedro I el Grande (1672 - 1725): Zar de Rusia.
- Sha Jahan (1592 - 1666): Emperador mogol de la India (encargó el Taj Mahal).
- Tokugawa Ieyasu (1543 - 1616): Fundador del shogunato Tokugawa en Japón.
[editar] Ciencia y filosofía
- Anton van Leeuwenhoek (1632 - 1723): científico neerlandés.
- Baruch Spinoza (1632 - 1677): filósofo holandés.
- Blaise Pascal (1623 - 1662): científico francés.
- Christiaan Huygens (1629 - 1695): matemático, físico y astrónomo neerlandés.
- Evangelista Torricelli (1608 - 1647): científico italiano.
- Galileo Galilei (1564 - 1642): científico italiano.
- Gottfried Leibniz (1646 - 1716): matemático y filósofo alemán.
- Isaac Newton (1643 - 1727): científico inglés.
- Johannes Kepler (1571 - 1630): astrónomo alemán.
- John Locke (1632 - 1704): filósofo inglés.
- Marin Mersenne (1588 - 1648): filósofo francés.
- Pierre de Fermat (1601 - 1665): matemático francés.
- René Descartes (1596 - 1650): filósofo y científico francés.
- Thomas Hobbes (1588 - 1679): filósofo inglés.
- William Harvey (1578 - 1657): científico y médico inglés.
[editar] Literatura
- Baltasar Gracián (1601 - 1658): Escritor español.
- Ben Jonson (1572 - 1637): Dramaturgo, poeta y actor inglés.
- Daniel Defoe (1659/1661 - 1731): Novelista y periodista inglés.
- Félix Lope de Vega (1562 - 1635): Poeta y dramaturgo español.
- Francisco de Quevedo (1580 - 1645): Escritor español.
- Jean de La Bruyère (1645 - 1696): Escritor y moralista francés.
- Jean Racine (1639 - 1699): Poeta y dramaturgo francés.
- John Donne (1572 - 1631): Poeta inglés.
- John Milton (1608 - 1674): Poeta inglés.
- Luis de Góngora (1561 - 1612): Poeta español.
- Molière (1622 - 1673): Dramaturgo francés.
- Nicolás Boileau (1636 - 1711): Poeta francés.
- Pedro Calderón de la Barca (1600 - 1681): Dramaturgo español.
- Pierre Corneille (1606 - 1684): Poeta y dramaturgo francés.
- Sor Juana Inés de la Cruz (1651 - 1695): Poetisa mexicana.
- Tirso de Molina (1579 - 1648): Poeta y dramaturgo español.
[editar] Música
- Alessandro Scarlatti (1660 - 1725): Músico italiano.
- Antonio Vivaldi (1678 - 1741): Músico y compositor italiano.
- Arcangelo Corelli (1653 - 1713): Compositor y violinista italiano.
- Claudio Monteverdi (1567 - 1643): Músico italiano.
- Francesco Cavalli (1602 - 1676): Compositor y organista veneciano.
- Gaspar Sanz (1640 - 1710): Músico español.
- Heinrich Schütz (1585 - 1672): Compositor y organista alemán.
- Henry Purcell (1659 - 1695): Músico inglés.
- Jean-Baptiste Lully (1632 - 1687): Músico francés.
- Johann Christoph Bach (1642 - 1703): Compositor y organista alemán.
- Johann Pachelbel (1653 - 1706): Músico alemán.
- Johann Sebastian Bach (1642 - 1703): Músico, organista y compositor alemán.
- John Blow (1649 - 1708): Compositor y organista inglés.
- Marc-Antoine Charpentier (1643 - 1704): Compositor francés.
[editar] Artes Plásticas y Arquitectura
- Anthony van Dyck (1599 - 1641): Pintor flamenco.
- Bartolomé Esteban Murillo (1617 - 1682): Pintor español.
- Caravaggio (1571 - 1610): Pintor italiano.
- Christopher Wren (1632 - 1723): Arquitecto inglés.
- Claudio de Lorena (1600 - 1682): Pintor francés.
- Diego Velázquez (1599 - 1660): Pintor español.
- Francesco Borromini (1599 - 1667): Arquitecto italiano.
- Francisco de Zurbarán (1598 - 1664): Pintor español.
- Frans Hals (1580 - 1666): Pintor neerlandés.
- Georges de la Tour (1593 - 1652): Pintor francés.
- Gian Lorenzo Bernini (1598 - 1680): Escultor, aquitecto y pintor italiano.
- Gregorio Fernández (1576 - 1636): Escultor español.
- Guido Reni (1575 - 1642): Pintor italiano.
- Jacob Jordaens (1593 - 1678): Pintor flamenco.
- Jan Steen (1626 - 1679): Pintor neerlandés.
- Jiang Tingxi (1669 - 1732): Pintor chino.
- Johannes Vermeer (1632 - 1675): Pintor neerlandés.
- José de Ribera (1591 - 1652): Pintor español.
- Juan Martínez Montañés (1568 - 1649): Escultor español.
- Jules Hardouin Mansart (1646 - 1708): Arquitecto francés.
- Nicolas Poussin (1594 - 1665): Pintor francés.
- Peter Paul Rubens (1577 - 1640): Pintor neerlandés.
- Rembrandt van Rijn (1606 - 1669): Pintor neerlandés.
[editar] Otras personalidades
- André le Nôtre, jardinero francés
- Vicente de Paúl, santo francés
- Antonio Stradivari, luthier italiano
- Santa Rosa de Lima, santa peruana
- Santo Toribio de Mogrovejo, obispo de Lima
- San Francisco Solano, misionero y santo español
- San Juan Macías, religioso y santo dominico español, radicado en el Peru
- San Martín de Porres, santo afro-peruano
- Pocahontas, princesa indígena estadounidense
- Juan Bautista de la Salle, sacerdote y pedagogo francés fundador de los Hermanos de las Escuelas Cristianas
SIGLO XIX
Según el calendario gregoriano vigente, el siglo XVIII comprende los años 1701-1800, ambos incluidos, de la era cristiana. En la historia occidental, el siglo XVIII también es llamado Siglo de las Luces, debido a que durante el mismo surgió el movimiento intelectual conocido como Ilustración. En ese marco, el siglo XVIII es fundamental para comprender el mundo moderno, pues muchos de los acontecimientos políticos, sociales, económicos, culturales e intelectuales del siglo han extendido su influencia hasta la actualidad.
De hecho, para la historia occidental, es el último de los siglos de la Edad Moderna, y el primero de la Edad Contemporánea, tomándose convencionalmente como momento de división entre ambas los años 1705 (Máquina de vapor), 1751 (L'Encyclopédie), 1776 (Independencia de Estados Unidos), o más comúnmente el 1789 (Revolución francesa).
Tras el caos político y militar vivido en el siglo XVII, el siglo XVIII, no carente de conflictos, verá un notable desarrollo en las artes y las ciencias europeas de la mano de la Ilustración, un movimiento cultural caracterizado por la reafirmación del poder de la razón humana frente a la fe y la superstición. Las antiguas estructuras sociales, basadas en el feudalismo y el vasallaje, serán cuestionadas y acabarán por colapsar, al tiempo que, sobre todo en Inglaterra, se inicia la Revolución industrial y el despegue económico de Europa. Durante dicho siglo, la civilización europea occidental afianzará su predominio en el mundo, y extenderá su influencia por todo el orbe.
Acontecimientos relevantes
[editar] Ciencia y Tecnología
- Inicio de la Revolución industrial (máquina de vapor, lanzadera volante, Spinning Jenny, etc.).
- Surgen las primeras escuelas de ingeniería.
- Se obtiene el primer acero fundido.
- Se funda la geodesia moderna.
- Antoine Lavoisier funda la Química moderna, y desmiente la teoría del flogisto.
- Se enuncian la ley de Lavoisier,...
- Se impone la mecánica newtoniana y la teoría de la gravitación universal. A finales de siglo, Lagrange propone la síntesis lagrangiana de las ecuaciones de Newton.
- Se desarrolla la mecánica de fluidos: los Bernoulli, D'Alembert,...
- Se desarrolla profundamente el cálculo infinitesimal, herramienta fundamental en física e ingeniería, por la necesidad de avanzar en la teoría de las ecuaciones diferenciales, fundamentales en física.
- Euler abre nuevas ramas de las matemáticas, como la topología, el cálculo complejo,...
- Comienza el estudio sistemático de los fenómenos eléctricos: experimentos de Cavendish, el pararrayos de Franklin, teoría de Galvani, experiencias de Davy, ecuaciones de Coulomb,...
- Comienza el estudio del comportamiento de los sólidos: rozamiento de Coulomb, teoría de choques de Carnot, criterio de fallo de Coulomb,...
- Se realizan los primeros estudios modernos sobre meteorología. Amateurs de toda Europa comienzan a llevar registros sistemáticos sobre el clima.
- Se realizan expediciones naturalistas por todo el mundo, dando inicio al naturalismo moderno; el hombre occidental afianza su conocimiento geográfico y natural del mundo, llegando a los lugares más recónditos.
- Linneo comienza la catalogación sistemática de las especies naturales.
- Se desarrollan las primeras teorías científicas sobre el surgimiento de las especies: Cuvier, Lamarck, Lord Monboddo, Buffon,... Se funda la biología moderna.
- Nuevas evidencias empíricas de la teoría heliocéntrica, trabajando con la velocidad de la luz sobre las lunas de Júpiter. Se realiza la primera medición aproximada de la velocidad de la luz.
- El desarrollo de mejores telescopios permite avanzar en el conocimiento astronómico del universo: se elabora el catálogo de Messier; se postula sobre la formación del sistema solar (Kant, Laplace,...).
- Edward Jenner desarrolla la primera vacuna moderna, dirigida contra la viruela. La medicina comienza a aplicar preceptos científicos.
[editar] Relaciones internacionales
Se caracterizan por el equilibrio europeo entre las potencias continentales (Austria, Prusia, Rusia, Francia y España) y el inicio, a finales de siglo, de la hegemonía marítima de Inglaterra. Persiste la importancia de otras potencias intermedias gracias a sus imperios coloniales (Portugal y Holanda). El Imperio chino y Japón continúan ajenos a la expansión europea, mientras que India comienza a ser repartida colonialmente. En América surge paulatinamente una conciencia de identidad e intereses alternativos a los de las metrópolis entre los colonos blancos (criollos) que producirá desde finales de siglo a movimientos independentistas y posteriormente a la independencia americana. Simultáneamente se reactiva la exploración y colonización de algunos territorios, como la costa noroccidental del Océano Pacífico (de California a Alaska), en una carrera de exploraciones entre España, Inglaterra y Rusia. Algunos grupos indígenas se extinguen (como el pericú, en la península de Baja California). El Pacífico central y meridional es objeto de las exploraciones de James Cook o Alejandro Malaspina, y comienza la colonización inglesa de Australia.- Guerra de Sucesión española (1700-1714): Francia se enfrenta a una coalición europea encabezada por Austria e Inglaterra, para resolver la sucesión Borbón o Habsburgo a Carlos II de España el Hechizado, muerto sin descendencia en 1700. Aunque el conflicto armado es ganado por los Habsburgo, su pretendiente, el Archiduque Carlos, se ve forzado a renunciar al trono de España al heredar el trono de Austria y del Sacro Imperio. Así, por los tratados de Utrecht y Rastadt Felipe V de Borbón obtiene el trono de España, con las colonias americanas; Prusia el estatus de reino; Austria, los territorios españoles en Flandes e Italia; Inglaterra, Gibraltar, Menorca y privilegios comerciales en América (se asienta como gran potencia). Entre Francia y España comienzan a funcionar los Pactos de Familia.
- Gran Guerra del Norte (1700-1721): es una serie de conflictos por la supremacía en el mar Báltico, en el que se enfrentan principalmente Suecia y Rusia. El conflicto es famoso por ser una suerte de epopeya del Rey de Suecia Carlos XII, visto como un Alejandro renacido. Hasta el momento, el Imperio Sueco había controlado buena parte de los territorios del mar Báltico, pero desde la llegada al trono del zar Pedro I, Rusia comienza a presionar e invadir territorios suecos (Livonia, Estonia, Finlandia,...), aprovechando que el rey Carlos XII había decidido invadir Polonia. Tras hacerse con el control del país, Carlos XII ataca en respuesta a Rusia. En un primer momento sale victorioso, pero es derrotado decisivamente en Poltava (1709). Aislado de la costa, se ve forzado a retirarse hacia el suroeste (Ucrania,...), y entra en territorio Otomano. El Imperio otomano lo ayuda militarmente, pero Carlos XII se ve forzado a regresar apresuradamente, y de incógnito, a Suecia, pues los nobles planeaban destronarlo. Aunque no lo logran, el conflicto continúa con múltiples ramificaciones en Alemania (entre suecos y sajones), en Noruega, en el sur de Suecia (daneses contra suecos), en Finlandia (rusos contra suecos),... Suecia, agotada por el conflicto, capitula en 1721, y cede a Rusia Livonia y Estonia, entre otros. Suecia pierde su relevancia como potencia europea en el báltico, y cede el testigo a Rusia, que emerge entonces como superpotencia. Comienza la decadencia de Polonia.
- Guerra de sucesión de Polonia (1733-1735), con el descrédito de la débil monarquía electiva de Polonia, a la muerte de Augusto II de Polonia (también elector de Sajonia), las potencias europeas proponen varios candidatos al trono. El candidato francés, Estanislao I Leszczynski (cuñado del rey Luis XV, y que ya había sido Rey de Polonia, aunque había sido derrocado), se presenta en oposición del de las potencias alemanas, el elector de Sajonia e hijo de Augusto II, Augusto III de Polonia. La escalada de conflictos entre boyardos polacos conduce a una guerra civil polaca, en la que además continúan los enfrentamientos entre Borbones y Habsburgos, esta vez por el dominio de Italia. Polonia pierde toda su influencia, y se sientan las bases para el posterior reparto del país entre Austria, Prusia y Rusia.
- Guerra de sucesión austriaca (1740-1748): Se trata de una guerra de gran complejidad. El conflicto comienza en realidad en 1739, con la Guerra de la oreja de Jenkins (1739-1741), cuando Inglaterra decide invadir las colonias caribeñas de España. Para ello, fleta la mayor armada conocida hasta el desembarco de Normandía, y decide atacar Cartagena de Indias, donde España le infringe una humillante derrota al enfrentarse unos 3000 defensores a 25000 invasores de la armada inglesa. Jorge II se convierte en el hazmerreir de Europa, y el gobierno inglés, encabezado por el primer ministro Robert Walpole, no tarda en caer (1740); con él se derrumba la alianza entre Austria e Inglaterra y Hanover (posesión personal del Rey Jorge II), que había sido propuganada por Walpole en contra de los deseos del país, que no veía con buenos ojos una alianza con una potencia católica. Sin embargo, tal y como sabía Walpole, esta alianza era de vital importancia para el equilibrio de poder europeo, pues refrenaba los deseos expansionistas de Prusia en centroeuropa, deseos que iban en contra de los intereses de Austria. Así, en 1740, a la muerte del emperador austríaco Carlos VI sin descendencia masculina, su hija María Teresa pretende hacer valer sus derechos al trono en virtud de la Pragmática Sanción promulgada por su padre en 1713, que Jorge II de Inglaterra decía respaldar. Sin embargo, Prusia deseosa de acabar con el podería de la Casa de Habsburgo, decide invadir la Silesia aprovechando el fin de la alianza anglo-austríaca y la confusión reinante en Austria. Los electorados de Baviera, Brandemburgo (posesión de Prusia) y Sajonia, deseosos de sacar provecho de la situación, y aduciendo que no reconocen a María Teresa como legítima heredera al trono de su padre, no tardan en sumarse al conflicto apoyando a Prusia, y los reinos borbones de Francia, España y Cerdeña se suman a la guerra pensando en debilitar a la Casa de Austria. Ante semejante ataque, Gran Bretaña teme la rotura del equilibrio de poder en Europa, y decide al fin volver a aliarse con Austria, que también será apoyada por las Provincias Unidas y el electorado de Hanóver, a la sazón posesión personal de Jorge II de Inglaterra. El conflicto termina en tablas, con María Teresa I en el trono austríaco, (que se separa del del Sacro Imperio), aunque Austria debe renunciar a la Silesia a favor de Prusia, que se confirma como potencia en centroeuropa. El Sacro Imperio, que se había enfrentado intestinamente por enésima vez, pasa a ser visto como algo meramente ceremonial. España logra reafirmarse como potencia atlántica frente a las pretensiones inglesas. El resto de potencias sólo obtiene compensaciones económicas.
- Guerra de los siete años (1756-1763). El conflicto tiene sus raíces en el equilibrio surgido del conflicto anterior. Básicamente, Francia y Austria, temerosas de una Prusia cada vez más poderosa, se enfrentran contra Inglaterra y Prusia. Sin embargo, la guerra adquiere una dimensión colonial, pues se inicia en Norteamérica al entrar en conflicto las colonias francesas del Quebéc francés con las colonias inglesas del Canadá superior y las Trece Colonias; ambas potencias emplearán a nativos americanos en contra unos de otros. Al tiempo, Prusia y Austria entran en guerra (Austria ataca a Prusia para recuperar la Silesia), y Francia, temerosa de una Prusia cada vez más fuerte, se alía con Austria en su contra. Inglaterra, aunque no tenía gran interés en el conflicto europeo, ve a Prusia como un aliado natural (es un país protestante, enemigo de Francia), y la apoya. Francia centra su lucha en Europa, y desatiende la guerra colonial, que se extiende a sus colonias en la India, atacadas por Inglaterra. En las colonias, Inglaterra vence a Francia, obteniendo la mayor parte de las colonias francesas en América (salvo la Luisiana, que había quedado prácticamente al margen del conflicto, y Francia se la cede a España para evitar que caiga en manos inglesas) y la India (comenzando así la conquista inglesa del subcontinente), y se convierte en superpotencia. Francia deja de ser una potencia colonial. El conflicto europea acaba en tablas, con Austria cada vez más alejada de Alemania y sin recuperar la Silesia. Prusia afianza su predominio en centroeuropa.
- Guerra de la Independencia de los Estados Unidos (1775-1783): las Trece Colonias (colonias americanas costeras de Inglaterra en el Atlántico norte), ante su negativa a pagar impuestos a Inglaterra por su propia defensa durante el conflicto de la guerra de los siete años, se declaran en rebeldía. Inglaterra envía tropas para acabar con la rebelión, y comienza un conflicto armado en el que los rebeldes son ayudados económica y militarmente por Francia, España y los Países Bajos. En 1776, proclaman su independencia de Inglaterra. La ayuda de las potencias extranjeras, sobre todo de Francia, consigue ir derrotando a las tropas inglesas. El conflicto termina cuando en 1783 el Parlamento inglés, presionado por una opinión pública poco favorable al conflicto y deseosa de acabar con un conflicto que la estaba humillando, decide ceder a las exigencias de los secesionistas, y reconoce la Independencia.
- Revolución francesa (1789): ante el descontento popular, con un Rey débil y una corte corrupta, ineficaz y ajena a los problemas del pueblo, Francia se rebela contra su Rey y lo toma preso. Se colapsa la sociedad del Antiguo Régimen, y en una escalada de rebeldías, se ejecuta a Luis XVI. Las monarquías europeas, temerosas de que el conflicto se extienda, declaran la guerra a Francia en la llamada Guerra de la Convención, que desde finales de siglo enlaza con las Guerras napoleónicas.
[editar] Desastres naturales
[editar] Artes
- En las artes plásticas:
- Fase final del Barroco y el Clasicismo heredados del siglo XVII
- Rococó: evolución del Barroco, en la que surgen formas nuevas de gran originalidad que se desvían completamente del canon clásico renacentista. Se caracteriza por una decoración profusa, con abundancia de líneas curvas.
- Neoclasicismo: reacción racionalista contra el rococó, que pretende volver a los orígenes más puros del clasicismo greco-romano y renacentista.
- Prerromanticismo: aparecen los primeros edificios neogóticos (Strawberry Hill,...) y se popularizan los jardines evocadores de la Edad Media, con falsas ruinas,...
- En la música:
- Barroco tardío (1700-1750): destacan Vivaldi, Handel y Bach. La orquestación crece en complejidad. El arte del contrapunto alcanza su máxima expresión con Bach. La ópera se populariza por toda Europa.
- Clasicismo (1750-1820): destacan Mozart, Haydn, y Beethoven. Se retorna a una música más sencilla, de estilo galante.
- En la literatura:
- Literatura augusta en el Reino Unido. Aparecen las primeras novelas modernas en inglés.
- Literatura racionalista: Voltaire y otros ilustrados propugnan una literatura útil, instructiva y racional, contraria a las fantasías y con una firme base en los hechos reales o verídicos. Sus ideas se extienden por todo el continente.
- Prerromanticismo: Horace Walpole publica la primera novela gótica en 1764; Inglaterra se aficiona a los temas exóticos y medievales. En Alemania, Goethe y Schiller propugnan el Sturm und Drang, verdadera fundación de la literatura alemana. Laurence Sterne, Rousseau y Diderot comienzan a prestar atención al sentimentalismo en literatura. En la década de 1790, Chateaubriand reacciona contra la literatura volteriana.
SIGLO XIX
Siglos: | Siglo XVIII Siglo XIX Siglo XX |
Décadas: | Años 1800 Años 1810 Años 1820 Años 1830 Años 1840 Años 1850 Años 1860 Años 1870 Años 1880 Años 1890 |
Tabla anual del siglo XIX |
SIGLO XX
Siglos: | Siglo XIX Siglo XX Siglo XXI |
Décadas: | Años 1900 Años 1910 Años 1920 Años 1930 Años 1940 Años 1950 Años 1960 Años 1970 Años 1980 Años 1990 |
Tabla anual del siglo XX |
Desembarco en la playa Omaha en la mañana del 6 de junio de 1944. La Segunda Guerra Mundial fue el mayor conflicto bélico de la historia de la humanidad.
Huella del astronauta Buzz Aldrin en la Luna. Durante el siglo XX dio comienzo la exploración espacial. En 1969 un ser humano pisó el primer cuerpo celeste aparte de la Tierra, la Luna.
Al hacer balance de esta centuria, Walter Isaacson, director gerente de la revista Time declaró: “Ha sido uno de los siglos más sorprendentes: inspirador, espantoso a veces, fascinante siempre”. Según Gro Harlem Brundtland, ex primera ministra de Noruega, también ha recibido la denominación de “siglo de los extremismos, [...] en el que los vicios humanos han alcanzado niveles abismales”. En su opinión, se trata de “un siglo de grandes progresos [y, en algunos lugares,] crecimiento económico sin precedentes”, si bien las zonas urbanas míseras afrontaron un lúgubre panorama de “hacinamiento y enfermedades generalizadas vinculadas a la pobreza y al ambiente insalubre”.
En los albores del siglo XX, la dinastía manchú de China, el Imperio otomano y varios imperios europeos controlaban gran parte del mundo. Tan solo el Imperio británico dominaba una cuarta parte del planeta y de sus habitantes. Mucho antes de finalizar el siglo, tales imperios habían quedado relegados a los libros de historia. “Para 1945 —indica The Times Atlas of the 20th Century— había terminado la era del imperialismo.”
Acontecimientos
[editar] Ciencia y tecnología
- Invención de los aerodinos
- Llegada de la electricidad a las ciudades.
- Creación y desarrollo de la electrónica: la Radio, la televisión, el teléfono, el fax, el transistor, los circuitos integrados, el láser, las computadoras e Internet
- Creación de las armas nucleares
- La conquista del espacio: Vuelo espacial y alunizaje
- Desarrollo de electrodomésticos: lavadora, frigorífico, horno eléctrico, cocinas eléctricas, hornos, horno microondas, aire acondicionado...
- Agua corriente en un alto porcentaje de casas (del primer mundo)
- Extensión alcantarillado de las ciudades.
- Enunciación de la Teoría de la relatividad y del modelo cosmológico del Big Bang
- Desarrollo de la mecánica cuántica y de la física de partículas
- Descubrimiento de los antibióticos, los anticonceptivos, el trasplante de órganos y la clonación, entre otros muchos grandes avances de la medicina
- Descripción de la estructura química del ADN y desarrollo de la biología molecular
- Desarrollo de la televisión.
- Creación y desarrollo de las videoconsolas ^1972
[editar] Guerras y política
[editar] Guerras y revoluciones
[editar] Política
- Caída del Imperio Ruso (1917)
- Caída del Imperio Austrohúngaro (1918)
- Caída del Imperio Alemán (1918)
- Caída del Imperio Otomano (1923)
- Organización de la Sociedad de Naciones (1919-1946).
- Nacimiento y ocaso de países socialistas.
- El fascismo en Italia (1922) y España (1939), y el nazismo en Alemania (1933) llegan al poder.
- Régimenes militares en Latinoamérica.
- Establecimiento de la Organización de las Naciones Unidas (1945) y elaboración de la Declaración Universal de los Derechos Humanos (1948)
- Conflicto árabe-israelí (1948-presente)
- Reconocimiento de los derechos de las mujeres y los derechos del niño
- Levantamientos anticoloniales y luchas de liberación nacional aceleran la descolonización.
- Caída del bloque comunista y el Muro de Berlín
- Gran crisis de refugiados de los Grandes Lagos en África (1994)
[editar] Desastres
- Erupción del Monte Pelado, Martinica (1902)
- Gran terremoto e incendio de San Francisco (1906)
- Naufragio del RMS Titanic (1912)
- Naufragio del RMS Lusitania (1915)
- Gran Terremoto y Tsunami en Puerto Rico (1918)
- Caída del LZ 129 Hindenburg (1937)
- Bombardeos atómicos sobre Hiroshima y Nagasaki (1945)
- Naufragio del buque MS Wilhelm Gustloff, (1945) (mayor naufragio con víctimas en la historia de la humanidad, con la pérdida de 10.000 vidas alemanas)
- Gran Terremoto y Tsunami de Chile (1960)
- Torrey Canyon (1967)
- Terremoto de Caracas, Venezuela (1967)
- Terremoto en Perú (1970)
- Terremotos en Nicaragua (1931 y 1972)
- Terremoto de Guatemala (1976)
- Colisión de Los Rodeos (1977)
- Amoco Cádiz (1978)
- Accidente de los Alfaques (1978)
- Desastre de Bhopal (1984)
- Tragedia de Heysel (1985)
- Terremoto de México (1985)
- Terremoto en Chile (1985)
- Tragedia de Armero (1985)
- Accidente de Chernóbil (1986)
- Accidente del transbordador espacial Challenger (1986)
- Desastre del Exxon Valdez (1989)
- Tragedia de Hillsborough (1989)
- Explosión del volcán Hudson (1991)
- Riada del camping de Biescas (1996)
- Erika (1999)
- Tragedia de Vargas, Venezuela (1999)
- Accidente del Concorde (2000)
[editar] Cultura
- Se desarrollan nuevas escuelas de el cubismo, el surrealismo y el expresionismo.
- El cine se convierte en un medio masivo y en una gran industria. Sus influjos alcanzan la moda y la música.
- El jazz alcanza su apogeo entre 1920 y 1960.
- El rock and roll surge como estilo musical y alcanza un gran desarrollo desde mediados de siglo.
- El racionalismo arquitectónico surge como escuela propia.
- El boom latinoamericano de la literatura, con estilos propios tales como el realismo mágico.
[editar] Problemas medioambientales
- Deforestación
- Desertización
- Extinción
- Polución y contaminación
- Agujeros en la capa de ozono
- Calentamiento global
[editar] Personajes relevantes
[editar]
Arte
- Fernando Botero
- Salvador Dalí
- Frida Kahlo
- Wassily Kandinski
- Gustav Klimt
- René Magritte
- Pablo Picasso
- Andy Warhol
[editar]
Danza
[editar]
Filosofía
- Theodor Adorno
- Simone de Beauvoir
- Mario Bunge
- Victoria Camps
- Albert Camus
- Rudolph Carnap
- Noam Chomsky
- Gilles Deleuze
- Jacques Derrida
- José Ferrater Mora
- Michel Foucault
- Martin Heidegger
- Carl Hempel
- Edmund Husserl
- Philip Kitcher
- Krishnamurti
- Jacques Lacan
- Emmanuel Lévinas
- José Ortega y Gasset
- Karl Popper
- Hans Reichenbach
- Bertrand Russell
- Wesley Salmon
- Jean Paul Sartre
- Moritz Schlick
- Ludwig Wittgenstein
- María Zambrano
[editar] Ciencia
[editar]
Biología
[editar] Economía
- Maurice Allais
- Gerard Debreu
- Agustín Reyes Ponce
- James Tobin
- John Maynard Keynes
- Paul Samuelson
- Friedrich Hayek
- Ludwig von Mises
- Milton Friedman
- Oskar Lange
[editar]
Física
- Arthur Eddington
- Albert Einstein
- Emmy Noether
- Enrico Fermi
- Ernest Rutherford
- Erwin Schrödinger
- Fred Hoyle
- Lev Davidovich Landau
- Marie Curie
- Niels Bohr
- Nikola Tesla
- Paul Dirac
- Pierre Curie
- Max Planck
- Richard Feynman
- Robert Oppenheimer
- Roger Penrose
- Stephen Hawking
- Werner Heisenberg
- Wolfgang Pauli
[editar]
Astronomía
[editar]
Aeronáutica y astronáutica
[editar]
Matemáticas
- Kurt Gödel
- David Hilbert
- Andréi Kolmogórov
- Emmy Noether
- Grigori Perelmán
- Henri Poincaré
- Ramanujan
- Claude Shannon
[editar] Ciencias de la computación
[editar]
Cine
[editar]
Literatura
[editar]
Música
[editar] Artistas
SIGLO XXI
El siglo XXI es el actual de acuerdo con el calendario gregoriano. Formalmente comprende los años comprendidos entre 2001 y 2100, ambos inclusive. Es el primer siglo del III milenio.1
El siglo XXI se caracteriza por el avance de la digitalización a nivel mundial. Este progreso ya se había iniciado a partir de la década de 1970 con la tercera revolución industrial. Sin embargo, a comienzos del siglo XXI, la digitalización experimentó un enorme cambio que dio lugar a nuevos dispositivos de almacenamiento de datos (memorias flash) y una mayor intensidad en la expansión de la telefonía móvil (iniciada en los años 80 del siglo XX), entre otras muchas características. En el campo de la tecnología también destacó el conocido como apagón analógico, así como la aparición, en 2005, del TDT o Televisión Digital Terrestre. En este siglo comienza a cobrarse verdadera conciencia del fenómeno conocido como cambio climático, que se ha convertido en una de las mayores preocupaciones internacionales; este problema ha motivado numerosas campañas de protesta, mientras, por parte de los Estados, se proponen medidas destinadas a lograr posibles soluciones, como el Protocolo de Kioto, acordado a finales del siglo XX (se concertó el 11 de diciembre de 1997, y se firmó entre el 16 de marzo de 1998 y el 15 de marzo de 1999 en la sede de la ONU). En el campo de la política demográfica, la globalización, de la que ya se habló en las últimas décadas del siglo XX, se ha intensificado notablemente.
En el contexto político y económico internacional, el siglo XXI está marcado desde el inicio por los ataques del 11 de septiembre de 2001 y la llamada "guerra contra el terrorismo" iniciada por los Estados Unidos; y también por la crisis económica de 2008, de alcance global, que continúa hasta nuestros días.
Acontecimientos
[editar]
Política
- Ampliación de la Unión Europea.
- Independencia de Timor Oriental.
- Revoluciones de colores.
- Independencia de Montenegro.
- Independencia de Kosovo.
- Reconocimiento internacional de la independencia de Abjasia y Osetia del Sur.
- Aprobación del matrimonio entre personas del mismo sexo en Países Bajos, Bélgica, España, Canadá, Sudáfrica, Suecia y Argentina, entre otros países.
- Independencia de Sudán del Sur
[editar] Economía
- Crisis de las hipotecas subprime.
- Crisis financiera de 2008.
- Crisis económica de 2008-2010.
- Crisis de la eurozona en 2010.
[editar] Ciencia y tecnología
[editar]
Exploración espacial
[editar]
Medicina
- Síndrome respiratorio agudo severo
- Trasplante de cara
- Gripe aviaria
- Genoma Humano
- Pandemia de gripe A (H1N1) de 2009
[editar] Otros
- Activación del LHC (Gran colisionador de hadrones).
- Descubrimiento del Homo floresiensis.
- Televisión Digital Terrestre.
- Memoria USB.
- Desarrollo de la Web 2.0.
- Cambio de emisiones analógicas a digitales en operadores de televisión.
[editar]
Guerras, conflictos y atentados
- Conflicto armado en Colombia (1964-presente).
- Guerra Civil de Sri Lanka (1983-2009).
- Segunda Guerra del Congo (1998-2003).
- Segunda Guerra Chechena (1999-2009').
- Intifada de Al-Aqsa (2000-2005).
- Ataques del 11 de septiembre de 2001.
- Guerra en Afganistán (2001-presente).
- Guerra contra el terrorismo (2001-presente).
- Crisis de diciembre de 2001 en Argentina
- Golpe de Estado en Venezuela (2002).
- Incidente de la isla de Perejil (2002).
- Guerra de Iraq (2003-2010).
- Conflicto de Darfur (2003).
- Atentados del 11 de marzo de 2004.
- Masacre de la escuela de Beslán (3 de septiembre de 2004).
- Atentados del 7 de julio de 2005.
- Disturbios de Francia de 2005.
- Conflicto Chad-Sudán (2005-2007).
- Invasión de Líbano de 2006.
- Atentados del 11 de julio de 2006 en Mumbai.
- Guerra en Somalia de 2006.
- Golpe de Estado en Fiyi de 2006.
- Guerra contra el narcotráfico en México (2006-presente).
- Crisis diplomática de Colombia con Ecuador y Venezuela de 2008.
- Golpe de Estado en Mauritania en 2008.
- Guerra entre Rusia y Georgia en 2008.
- Conflicto de la Franja de Gaza de 2008-2009.
- Golpe de Estado en Honduras (2009)
- Atentados del metro de Moscú de 2010
- Disturbios de Kingston de 2010
- Revoluciones y protestas en el mundo árabe de 2010-2011
[editar]
Desastres
- Terremotos en El Salvador en enero y febrero de 2001
- El petrolero Prestige se hunde ocasionando una marea negra frente a Galicia, 2002
- El SARS se expande por el mundo, 2003
- Terremoto y Tsunami ocurrido en el Océano Índico a finales de 2004.
- Huracán Katrina, 2005
- Huracán Stan, 2005
- Huracán Wilma, 2005
- Terremoto de Cachemira de 2005
- Huracán Dean, 2007
- Terremoto de Perú de 2007
- Inundación de Tabasco y Chiapas de 2007
- Ciclón Nargis de Birmania 2008
- Terremoto de Sichuan de 2008
- Huracán Ike, 2008
- Terremoto de Honduras de 2009
- Terremoto de L'Aquila de 2009
- Temporal de nieve y hielo de todo el hemisferio norte de 2010
- Terremoto de Haití de 2010
- Terremoto de Sucre (Venezuela) de 2010
- Terremoto de China de 2010
- Terremoto de Chile de 2010
- Terremoto de San Juan (Argentina) de 2010
- Terremoto de las Islas Ryūkyū de 2010
- Terremoto de Turquía de 2010
- Terremoto de Taiwán de 2010
- Segundo terremoto de Chile de 2010
- Terremoto de Baja California de 2010
- Terremoto de Indonesia de 2010
- Terremoto de Calama de 2010
- Terremoto de Salta de 2010
- Terremoto de Tucumán de 2010
- Terremoto de Ushuaia de 2010
- Terremoto de las Islas Caimán de 2010
- Terremoto de las Islas Salomón de 2010
- Temporal de Río de Janeiro de abril de 2010
- Accidente del Tu-154 de la Fuerza Aérea de Polonia
- Terremoto de Yushu de 2010
- Erupción del volcán Eyjafjalla de 2010
- Tercer terremoto de Chile de 2010
- Tormenta tropical Agatha (2010)
- Erupción del 27 de mayo de 2010
- Mineros atrapados en Mina San José (Chile)
- Terremoto y tsunami de Japón de 2011
- Terremoto de Lorca de 2011
[editar]
Arquitectura
Principales obras:- Estructura más alta construida por el hombre, el Burj Khalifa, (2004-2010).
- Cuatro Torres Business Area en Madrid, España, (2006-2009).
- Taipei 101
- Shanghai World Financial Center.
- International Commerce Centre.
- Menara Telekom.
- Puente Runyang.
- Puente Xihoumen.
[editar]
Cultura
- Exposiciones internacionales de Aichi 2005 y de Zaragoza 2008.
- Exposición Universal de Shanghái de 2010
[editar]
Problemas ambientales
[editar] Acontecimientos astronómicos ocurridos o previstos en el siglo XXI
[editar] Lista de los largos eclipses totales de Sol
- 22 de julio de 2009: Eclipse total de Sol,2 (6 min 39 s), del saros 136. El más largo del siglo.
- 2 de agosto de 2027: Eclipse total de Sol,3 (6 min 23 s), del saros 136.
- 12 de agosto de 2045: Eclipse total de Sol,4 (6 min 06 s), del saros 136.
- 24 de agosto de 2063: Eclipse total de Sol,5 (5 min 49 s), del saros 136.
- 11 de mayo de 2078: Eclipse total de Sol,6 (5 min 40 s), del saros 139.
- 22 de mayo de 2096: Eclipse total de Sol,7 (6 min 07 s), del saros 139.
[editar] Otros fenómenos
- 7 de mayo de 2003: Primer tránsito de Mercurio del siglo XXI.
- El martes 8 de junio de 2004: Primer tránsito de Venus del siglo XXI.
El precedente que tiene lugar cerca de 122 años antes, el 6 de diciembre de 1882. - 8 de noviembre de 2006: tránsito de Mercurio (2.o de este siglo).
- 2009: Triple conjunción Júpiter-Neptuno.
- 2010/2011: Triple conjunción Júpiter-Urano.
- El miércoles 6 de junio de 2012: Segundo tránsito de Venus, (y último) de este siglo.
- 9 de mayo de 2016: Tránsito de Mercurio (3.o de este siglo).
- 11 de noviembre de 2019: Tránsito de Mercurio (4.o de este siglo).
- 2024 (más o menos a 5 años): próxima vuelta prevista del cometa de 12P/Pons-Brooks.
- 2025/2026: Triple conjunción Saturno-Neptuno.
- El viernes 13 de abril de 2029: El asteroide (99942) Apophis (mejor conocido inicialmente bajo su designación provisional de 2004 MN4) pasará a ~30 000 km la Tierra.
- 13 de noviembre de 2032: Tránsito de Mercurio (5.o de este siglo).
- 2037/2038: Triple conjunción Júpiter-Urano.
- 7 de noviembre de 2039: Tránsito de Mercurio (6.o de este siglo).
- 2041/2042: Triple conjunción Marte-Urano.
- 1 de octubre de 2044: Ocultación de Regulus por Venus. La última vez fue el 7 de julio de 1959.
Después de 2044, la próxima ocultación de Regulus por Venus tendrá lugar el 21 de octubre de 3187, aunque algunas fuentes indican el 6 de octubre de 2271. - 2047/2048: Triple conjunción Júpiter-Neptuno.
- 7 de mayo de 2049: Tránsito de Mercurio (7.o de este siglo).
- 9 de noviembre de 2052: Tránsito de Mercurio (8.o de este siglo).
- Julio de 2061: Próximo paso del Cometa Halley a su perihelio.
- 10 de mayo de 2062: Tránsito de Mercurio (9.o de este siglo).
- 2063: Triple conjunción Marte-Urano.
- 11 de noviembre de 2065: Tránsito de Mercurio (10.o de este siglo).
- 22 de noviembre de 2065: a 12:45 UTC, Venus ocultará a Júpiter.
Esta ocultación será la primera ocultación de un planeta por otra (vista de la Tierra) desde el 3 de enero de 1818.
Será muy difícil de observar, debido al alargamiento de solamente 7° de los 2 planetas frente al Sol. - 2066: Triple conjunción Júpiter-Urano.
- 15 de julio de 2067: a 11:56 UTC, Mercurio ocultará a Neptuno.
Este acontecimiento raro será muy difícil de observar, por una parte del escaso alargamiento (solar) de Mercurio, y por otra parte de la magnitud de Neptuno (magnitud ~9) que es siempre superior (pero intensidad luminosa inferior) al límite de visibilidad el a simple vista (magnitud ~6). - 2071/2072: Triple conjunción Marte-Neptuno.
- 14 de noviembre de 2078: Tránsito de Mercurio (11.o de este siglo).
- 2079: Triple conjunción Saturno-Urano.
- 11 de agosto de 2079: a 01:30 UTC, Mercurio ocultará Marte.
- El Viernes 10 de noviembre de 2084: Tránsito de la Tierra (y de la Luna) visible desde Marte, el primero y el único en este siglo.
¿Será - quizá - el primero que futuros exploradores (o colonizadores) de Marte observarán? - 7 de noviembre de 2085: Tránsito de Mercurio (12.o de este siglo).
- 2085/2086: Triple conjunción Júpiter-Neptuno.
- 27 de octubre de 2088: a 13:43 UTC, Mercurio ocultará a Júpiter.
- 2088/2089: Triple conjunción Marte-Neptuno.
- 2093: Triple conjunción Júpiter-Urano.
- 7 de abril de 2094: a 10:48 UTC, Mercurio ocultará a Júpiter.
- 8 de mayo de 2095: Tránsito de Mercurio (13.o de este siglo).
- 10 de noviembre de 2098: Tránsito de Mercurio (14.o, y último, de este siglo).
- 24 de marzo de 2100: la estrella Polaris llegará a su mayor proximidad con el Polo norte celeste de la Tierra.
[editar] Ciencia Ficción
- El libro de Cormac McCarthy " La Carretera " se encuentra cronológicamente situado tras un desastre nuclear del siglo XXI.
- La película 2001: una odisea espacial se remonta al 2001.
- La película "El Hombre Bicentenario" se remonta en el año 2005
- En uno de los capítulos de la primera temporada de Héroes se muestra el año 2011.
- La película de Roland Emmerich, 2012 se desarrolla en el 2012.
- La película de Francis Lawrence, Soy leyenda protagonizada por Will Smith, se desarrolla en el 2012 y los acontecimientos que preceden en el 2009.
- La película de John Carpenter, Escape from L.A. tiene lugar en el 2013.
- El final de la telenovela Don Amor se produce en el año 2013.
- La película de Kevin Costner, The Postman se desarrolla en el 2013.
- La película de Robert Zemeckis, Regreso al futuro II se desarrolla, en parte, en el 2015.
- En la saga de Empire Earth, la campaña rusa transcurre entre los años 2018 y 2097.
- La serie de televisión seaQuest DSV se ambienta entre los años 2018 y 2032.
- La película de Michael Bay, La isla se desarrolla en el 2019.
- El aclamado animé Neon Genesis Evangelion toma lugar en el 2015, y varios de los eventos importantes ocurren en años anteriores a dicho año (2000, 2001, 2004, etc.).
- La película de Ridley Scott, Blade Runner se desarrolla en el 2019.
- La película Misión a Marte transcurre en el 2020.
- La película de Martin Campbell, Escape de Absolom esta ambientada en el 2022.
- La película Soylent Green, Cuando el destino nos alcance se desarrolla en el 2021.
- La película de Alfonso Cuarón, Hijos de los hombres se desarrolla al 2027.
- La película de James Cameron, Terminator se ambienta, en parte, en el 2029.
- La película de Tim Burton, El planeta de los simios arranca en el 2029.
- La película de Alex Proyas, Yo, robot se desarrolla en el 2035.
- La película de Terry Gilliam, Doce monos se desarrolla durante el 2035.
- La película de Antony Hoffman, Planeta rojo está ambientada en el 2050.
- La película Minority Report toma lugar en el 2054.
- La película El sonido del trueno está ambientada en el año 2055.
- En la saga Star Trek los humanos toman el primer contacto con una raza extraterrestre en el 2063.
- Algunos personajes de Alien, el octavo pasajero nacen a finales de este siglo.
- El animé Death Note transcurre entre 2003 y 2010.
Generaciones de las Computadoras
Todo este desarrollo de las computadoras suele divisarse por generaciones.
Primera Generación (1951-1958)
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características: |
En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares). La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales. Segunda Generación (1958-1964)
Características de está generación: Tercera Generación (1964-1971)
Características de está generación: Cuarta Generación (1971-1988)
Características de está generación: Quinta Generación (1983 al presente) En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera: Inteligencia artíficial: La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora. Robótica: La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no estructuradas. Sistemas expertos: Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas. Redes de comunicaciones: Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software" que administra la transmisión. |
El Concepto de Datos
Enviado porPrograma de Inglés
Aprende Inglés y Logra lo que Tanto Deseas ¡Descúbre Cómo! www.GanandoConIngles.com
Aprende Inglés y Logra lo que Tanto Deseas ¡Descúbre Cómo! www.GanandoConIngles.com
Indice1. El Concepto de Datos
2. El Concepto de Información
3. Diferencia entre Datos e información
4. El Concepto de Procesamiento de Datos
5. Concepto de Procesamiento Distribuido y Centralizado
6. Estructura de Datos utilizados en el proceso electrónico de datos
7. Conclusion
8. Bibliografía
1. El Concepto de Datos
Datos son los hechos que describen sucesos y entidades."Datos" es una palabra en plural que se refiere a más de un hecho. A un hecho simple se le denomina "data-ítem" o elemento de dato.
Los datos son comunicados por varios tipos de símbolos tales como las letras del alfabeto, , movimientos de labios,
puntos y rayas, señales con la mano, dibujos, etc. Estos símbolos se pueden ordenar y reordenar de forma utilizable y se les denomina información.
Los datos son símbolos que describen condiciones, hechos, situaciones o valores. Los datos se caracterizan por no contener ninguna información. Un dato puede significar un número, una letra, un signo ortográfico o cualquier símbolo que represente una cantidad, una medida, una palabra o una descripción.
La importancia de los datos está en su capacidad de asociarse dentro de un contexto para convertirse en información. Por si mismos los datos no tienen capacidad de comunicar un significado y por tanto no pueden afectar el comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en información para ofrecer un significado, conocimiento, ideas o conclusiones.
2. El Concepto de Información
La información no es un dato conjunto cualquiera de ellos. Es más bien una de hechos significativos y pertinentes, para el organismo u organización que los percibe. La definición de información es la siguiente: Información es un conjunto de datos significativos y pertinentes que describan sucesos o entidades.
DATOS SIGNIFICATIVOS. Para ser significativos, los datos deben constar de símbolos reconocibles, estar completos y expresar una no ambigua.
Los símbolos de los datos son reconocibles cuando pueden ser correctamente interpretados. Muchos tipos diferentes de símbolos comprensibles se usan para transmitir datos.
La integridad significa que todos los datos requeridos para responder a una pregunta específica están disponibles. Por ejemplo, un de béisbol debe incluir el tanteo de ambos . Si se oye el tanteo "New York 6" y no oyes el del oponente, el anuncio será incompleto y sin sentido.
Los datos son inequívocos cuando el contexto es claro. Por ejemplo, el grupo de signos 2-x puede parecer "la cantidad 2 menos la cantidad desconocida llamada x" para un estudiante de álgebra, pero puede significar "2 x" a un vaquero que marca ganado. Tenemos que conocer el contexto de estos símbolos antes de poder conocer su significado.
Otro ejemplo de la necesidad del contexto es el uso de términos especiales en diferentes campos especializados, tales como la contabilidad. Los contables utilizan muchos términos de forma diferente al público en general, y una parte de un aprendizaje de contabilidad es aprender el lenguaje de contabilidad. Así los términos Debe y pueden significar para un contable no más que "derecha" e "izquierda" en una contabilidad en , pero pueden sugerir muchos tipos de ideas diferentes a los no contables.
DATOS PERTINENTES. Decimos que tenemos datos pertinentes (relevantes) cuando pueden ser utilizados para responder a preguntas propuestas.
Disponemos de un considerable número de hechos en nuestro entorno. Solo los hechos relacionados con las necesidades de información son pertinentes. Así la organización selecciona hechos entre sucesos y entidades particulares para satisfacer sus necesidades de información.
3. Diferencia entre Datos e información
- Los Datos a diferencia de la información son utilizados como diversos métodos para comprimir la información a fin de permitir una transmisión o almacenamiento más eficaces.
- Aunque para el procesador de la computadora hace una distinción vital entre la información entre los programas y los datos, la memoria y muchas otras partes de la computadora no lo hace. Ambos son registradas temporalmente según la instrucción que se le de. Es como un pedazo de papel no sabe ni le importa lo que se le escriba: un poema de amor, las cuentas del banco o instrucciones para un amigo. Es lo mismo que la memoria de la computadora. Sólo el procesador reconoce la diferencia entre datos e información de cualquier programa. Para la memoria de la computadora, y también para los dispositivos de entrada y salida (E/S) y almacenamiento en disco, un programa es solamente más datos, más información que debe ser almacenada, movida o manipulada.
- La cantidad de información de un mensaje puede ser entendida como el número de símbolos posibles que representan el mensaje."los símbolos que representan el mensaje no son más que datos significativos.
- En su concepto más elemental, la información es un mensaje con un contenido determinado emitido por una persona hacia otra y, como tal, representa un papel primordial en el proceso de la comunicación, a la vez que posee una evidente función social. A diferencia de los datos, la información tiene significado para quien la recibe, por eso, los seres humanos siempre han tenido la necesidad de cambiar entre sí información que luego transforman en acciones. "La información es, entonces, conocimientos basados en los datos a los cuales, mediante un procesamiento, se les ha dado significado, propósito y utilidad"
Hasta el momento hemos supuesto que los datos que maneja una aplicación no son tan voluminosos y por lo tanto caben en memoria. Cuando recurrimos a archivos se debe a la necesidad de conservar datos después de que termina un programa, por ejemplo para apagar el computador.
Sin embargo, existen problemas en donde el volumen de datos es tan grande que es imposible mantenerlos en memoria. Entonces, los datos se almacenan en un conjunto de archivos, los que forman una base de datos. Una base de datos es por lo tanto un conjunto de archivos que almacenan, por ejemplo, datos con respecto al negocio de una empresa.
Cada archivo se forma en base a un conjunto de líneas y cada línea esta formada por campos de información. Todas las líneas de un mismo archivo tienen la misma estructura, es decir los mismos campos de información. Diferentes archivos poseen estructuras distintas, i.e. campos de información.
Por ejemplo, el archivo de postulantes post.dat, visto en capítulos anteriores, tiene la siguiente información:
- ci: carnet de identidad de la persona.
- nombre.
Algunas definiciones
Recolección de datos:
Provee un vínculo para obtener la información interoperacionables racional y las parametrizaciones.
Almacenamiento de datos:
Las unidades de disco de la computadora y otros medios de almacenamiento externo permiten almacenar los datos a más largo plazo, manteniéndolos disponibles pero separados del circuito principal hasta que el microprocesador los necesita. Una computadora dispone también de otros tipos de almacenamiento.
La memoria de sólo lectura (ROM) es un medio permanente de almacenamiento de información básica, como las instrucciones de inicio y los procedimientos de entrada/salida. Asimismo, una computadora utiliza varios buffers (áreas reservadas de la memoria) como zonas de almacenamiento temporal de información específica, como por ejemplo los caracteres a enviar a la impresora o los caracteres leídos desde el teclado.
Procesamiento de datos:
- El objetivo es graficar el Procesamiento de Datos, elaborando un Diagrama que permita identificar las Entradas, Archivos, Programas y Salidas de cada uno de los Procesos.
- Su antecedente es el Diagrama de Flujo.
- Los elementos claves son los Programas.
- Se confecciona el Diagrama de Procesamiento de Datos
- Este Diagrama no se podrá elaborar por completo desde un primer momento ya que depende del Flujo de Información.
- En este primer paso sólo se identifican las Salidas y Programas. Los elementos restantes se identifican en forma genérica.
Consiste en asegurar la veracidad e integridad de los datos que ingresan a un archivo. Existen numerosas técnicas de validación tales como: Digito verificador, chequeo de tipo, chequeo de rango.
5. Concepto de Procesamiento Distribuido y Centralizado
Procesamiento Centralizado:
En la década de los años 50’s las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes características:
• Un CPU
• Pequeña cantidad de RAM
• Dispositivos DC almacenamiento secundario (cintas)
• Dispositivos d salida (perforadoras de tarjetas)
• Dispositivos de entrada (lectores de tarjeta perforada)
Con el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en sofisticación,
• Aunque la industria continuaba siendo dominada por las computadoras grandes "mainframes". A medida que la computación evolucionaba, las computadoras, fueron capaces de manejar aplicaciones múltiples simultáneamente, convirtiéndose en procesadores centrales "hosts" a los que se les
Conectaban muchos periféricos y terminales tontas que consistían solamente de dispositivos de entrada/salida (monitor y teclado) y quizá poco espacio de almacenamiento, pero que no podían procesar por sí mismas. Las terminales locales se conectaban con el procesador central a través de interfaces seriales ordinarias de baja velocidad, mientras que las terminales remotas se enlazaban con
• El "host" usando módems y líneas telefónicas conmutadas. En este ambiente, se ofrecían velocidades de transmisión de 1200, 2400, o 9600 bps. Un ambiente como el descrito es lo que se conoce como procesamiento centralizado en su forma más pura "host/terminal". Aplicaciones características de este tipo de ambiente son:
• Administración de grandes tuses de datos integradas
• Algoritmos científicos de alta velocidad
• Control de inventarios centralizado
Al continuar la evolución de los "mainframes", estos se comenzaron a conectar a enlaces de alta velocidad donde algunas tareas relacionadas con las comunicaciones se delegaban a otros dispositivos llamados procesadores comunicaciones "Front End Procesos" (I7EP’s) y controladores de grupo "Cluster Controllers" (CC’s).
Procesamiento Distribuido:
El procesamiento centralizado tenía varios inconvenientes, entre los que podemos mencionar que un número limitado de personas controlaba el acceso a la información y a los reportes, se requería un grupo muy caro de desarrolladores de sistemas para crear las aplicaciones, y los costos de mantenimiento y soporte eran extremadamente altos. La evolución natural de la computación fue en el sentido del procesamiento distribuido, así las minicomputadoras (a pesar de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del procesamiento que tenían los "mainframes".
Ventajas
Existen cuatro ventajas del procesamiento de bases de datos distribuidas. La primera, puede dar como resultado un mejor rendimiento que el que se obtiene por un procesamiento centralizado. Los datos pueden colocarse cerca del punto de su utilización, de forma que el tiempo de comunicación sea mas corto. Varias computadoras operando en forma simultánea pueden entregar más volumen de procesamiento que una sola computadora.
Segundo, los datos duplicados aumentan su confiabilidad. Cuando falla una computadora, se pueden obtener los datos extraídos de otras computadoras. Los usuarios no dependen de la disponibilidad de una sola fuente para sus datos .Una tercera ventaja, es que los sistemas distribuidos pueden variar su tamaño de un modo más sencillo. Se pueden agregar computadoras adicionales a la red conforme aumentan el número de usuarios y su carga de procesamiento. A menudo es más fácil y más barato agregar una nueva computadora más pequeña que actualizar una computadora única y centralizada. Después, si la carga de trabajo se reduce, el tamaño de la red también puede reducirse.
Por último, los sistemas distribuidos se pueden adecuar de una manera más sencilla a las estructuras de la organización de los usuarios.
INFORMATICA
El Concepto de Datos
Enviado porPrograma de Inglés
Aprende Inglés y Logra lo que Tanto Deseas ¡Descúbre Cómo! www.GanandoConIngles.com
Aprende Inglés y Logra lo que Tanto Deseas ¡Descúbre Cómo! www.GanandoConIngles.com
Indice1. El Concepto de Datos
2. El Concepto de Información
3. Diferencia entre Datos e información
4. El Concepto de Procesamiento de Datos
5. Concepto de Procesamiento Distribuido y Centralizado
6. Estructura de Datos utilizados en el proceso electrónico de datos
7. Conclusion
8. Bibliografía
1. El Concepto de Datos
Datos son los hechos que describen sucesos y entidades."Datos" es una palabra en plural que se refiere a más de un hecho. A un hecho simple se le denomina "data-ítem" o elemento de dato.
Los datos son comunicados por varios tipos de símbolos tales como las letras del alfabeto, , movimientos de labios,
puntos y rayas, señales con la mano, dibujos, etc. Estos símbolos se pueden ordenar y reordenar de forma utilizable y se les denomina información.
Los datos son símbolos que describen condiciones, hechos, situaciones o valores. Los datos se caracterizan por no contener ninguna información. Un dato puede significar un número, una letra, un signo ortográfico o cualquier símbolo que represente una cantidad, una medida, una palabra o una descripción.
La importancia de los datos está en su capacidad de asociarse dentro de un contexto para convertirse en información. Por si mismos los datos no tienen capacidad de comunicar un significado y por tanto no pueden afectar el comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en información para ofrecer un significado, conocimiento, ideas o conclusiones.
2. El Concepto de Información
La información no es un dato conjunto cualquiera de ellos. Es más bien una de hechos significativos y pertinentes, para el organismo u organización que los percibe. La definición de información es la siguiente: Información es un conjunto de datos significativos y pertinentes que describan sucesos o entidades.
DATOS SIGNIFICATIVOS. Para ser significativos, los datos deben constar de símbolos reconocibles, estar completos y expresar una no ambigua.
Los símbolos de los datos son reconocibles cuando pueden ser correctamente interpretados. Muchos tipos diferentes de símbolos comprensibles se usan para transmitir datos.
La integridad significa que todos los datos requeridos para responder a una pregunta específica están disponibles. Por ejemplo, un de béisbol debe incluir el tanteo de ambos . Si se oye el tanteo "New York 6" y no oyes el del oponente, el anuncio será incompleto y sin sentido.
Los datos son inequívocos cuando el contexto es claro. Por ejemplo, el grupo de signos 2-x puede parecer "la cantidad 2 menos la cantidad desconocida llamada x" para un estudiante de álgebra, pero puede significar "2 x" a un vaquero que marca ganado. Tenemos que conocer el contexto de estos símbolos antes de poder conocer su significado.
Otro ejemplo de la necesidad del contexto es el uso de términos especiales en diferentes campos especializados, tales como la contabilidad. Los contables utilizan muchos términos de forma diferente al público en general, y una parte de un aprendizaje de contabilidad es aprender el lenguaje de contabilidad. Así los términos Debe y pueden significar para un contable no más que "derecha" e "izquierda" en una contabilidad en , pero pueden sugerir muchos tipos de ideas diferentes a los no contables.
DATOS PERTINENTES. Decimos que tenemos datos pertinentes (relevantes) cuando pueden ser utilizados para responder a preguntas propuestas.
Disponemos de un considerable número de hechos en nuestro entorno. Solo los hechos relacionados con las necesidades de información son pertinentes. Así la organización selecciona hechos entre sucesos y entidades particulares para satisfacer sus necesidades de información.
3. Diferencia entre Datos e información
- Los Datos a diferencia de la información son utilizados como diversos métodos para comprimir la información a fin de permitir una transmisión o almacenamiento más eficaces.
- Aunque para el procesador de la computadora hace una distinción vital entre la información entre los programas y los datos, la memoria y muchas otras partes de la computadora no lo hace. Ambos son registradas temporalmente según la instrucción que se le de. Es como un pedazo de papel no sabe ni le importa lo que se le escriba: un poema de amor, las cuentas del banco o instrucciones para un amigo. Es lo mismo que la memoria de la computadora. Sólo el procesador reconoce la diferencia entre datos e información de cualquier programa. Para la memoria de la computadora, y también para los dispositivos de entrada y salida (E/S) y almacenamiento en disco, un programa es solamente más datos, más información que debe ser almacenada, movida o manipulada.
- La cantidad de información de un mensaje puede ser entendida como el número de símbolos posibles que representan el mensaje."los símbolos que representan el mensaje no son más que datos significativos.
- En su concepto más elemental, la información es un mensaje con un contenido determinado emitido por una persona hacia otra y, como tal, representa un papel primordial en el proceso de la comunicación, a la vez que posee una evidente función social. A diferencia de los datos, la información tiene significado para quien la recibe, por eso, los seres humanos siempre han tenido la necesidad de cambiar entre sí información que luego transforman en acciones. "La información es, entonces, conocimientos basados en los datos a los cuales, mediante un procesamiento, se les ha dado significado, propósito y utilidad"
Hasta el momento hemos supuesto que los datos que maneja una aplicación no son tan voluminosos y por lo tanto caben en memoria. Cuando recurrimos a archivos se debe a la necesidad de conservar datos después de que termina un programa, por ejemplo para apagar el computador.
Sin embargo, existen problemas en donde el volumen de datos es tan grande que es imposible mantenerlos en memoria. Entonces, los datos se almacenan en un conjunto de archivos, los que forman una base de datos. Una base de datos es por lo tanto un conjunto de archivos que almacenan, por ejemplo, datos con respecto al negocio de una empresa.
Cada archivo se forma en base a un conjunto de líneas y cada línea esta formada por campos de información. Todas las líneas de un mismo archivo tienen la misma estructura, es decir los mismos campos de información. Diferentes archivos poseen estructuras distintas, i.e. campos de información.
Por ejemplo, el archivo de postulantes post.dat, visto en capítulos anteriores, tiene la siguiente información:
- ci: carnet de identidad de la persona.
- nombre.
Algunas definiciones
Recolección de datos:
Provee un vínculo para obtener la información interoperacionables racional y las parametrizaciones.
Almacenamiento de datos:
Las unidades de disco de la computadora y otros medios de almacenamiento externo permiten almacenar los datos a más largo plazo, manteniéndolos disponibles pero separados del circuito principal hasta que el microprocesador los necesita. Una computadora dispone también de otros tipos de almacenamiento.
La memoria de sólo lectura (ROM) es un medio permanente de almacenamiento de información básica, como las instrucciones de inicio y los procedimientos de entrada/salida. Asimismo, una computadora utiliza varios buffers (áreas reservadas de la memoria) como zonas de almacenamiento temporal de información específica, como por ejemplo los caracteres a enviar a la impresora o los caracteres leídos desde el teclado.
Procesamiento de datos:
- El objetivo es graficar el Procesamiento de Datos, elaborando un Diagrama que permita identificar las Entradas, Archivos, Programas y Salidas de cada uno de los Procesos.
- Su antecedente es el Diagrama de Flujo.
- Los elementos claves son los Programas.
- Se confecciona el Diagrama de Procesamiento de Datos
- Este Diagrama no se podrá elaborar por completo desde un primer momento ya que depende del Flujo de Información.
- En este primer paso sólo se identifican las Salidas y Programas. Los elementos restantes se identifican en forma genérica.
Consiste en asegurar la veracidad e integridad de los datos que ingresan a un archivo. Existen numerosas técnicas de validación tales como: Digito verificador, chequeo de tipo, chequeo de rango.
5. Concepto de Procesamiento Distribuido y Centralizado
Procesamiento Centralizado:
En la década de los años 50’s las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes características:
• Un CPU
• Pequeña cantidad de RAM
• Dispositivos DC almacenamiento secundario (cintas)
• Dispositivos d salida (perforadoras de tarjetas)
• Dispositivos de entrada (lectores de tarjeta perforada)
Con el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en sofisticación,
• Aunque la industria continuaba siendo dominada por las computadoras grandes "mainframes". A medida que la computación evolucionaba, las computadoras, fueron capaces de manejar aplicaciones múltiples simultáneamente, convirtiéndose en procesadores centrales "hosts" a los que se les
Conectaban muchos periféricos y terminales tontas que consistían solamente de dispositivos de entrada/salida (monitor y teclado) y quizá poco espacio de almacenamiento, pero que no podían procesar por sí mismas. Las terminales locales se conectaban con el procesador central a través de interfaces seriales ordinarias de baja velocidad, mientras que las terminales remotas se enlazaban con
• El "host" usando módems y líneas telefónicas conmutadas. En este ambiente, se ofrecían velocidades de transmisión de 1200, 2400, o 9600 bps. Un ambiente como el descrito es lo que se conoce como procesamiento centralizado en su forma más pura "host/terminal". Aplicaciones características de este tipo de ambiente son:
• Administración de grandes tuses de datos integradas
• Algoritmos científicos de alta velocidad
• Control de inventarios centralizado
Al continuar la evolución de los "mainframes", estos se comenzaron a conectar a enlaces de alta velocidad donde algunas tareas relacionadas con las comunicaciones se delegaban a otros dispositivos llamados procesadores comunicaciones "Front End Procesos" (I7EP’s) y controladores de grupo "Cluster Controllers" (CC’s).
Procesamiento Distribuido:
El procesamiento centralizado tenía varios inconvenientes, entre los que podemos mencionar que un número limitado de personas controlaba el acceso a la información y a los reportes, se requería un grupo muy caro de desarrolladores de sistemas para crear las aplicaciones, y los costos de mantenimiento y soporte eran extremadamente altos. La evolución natural de la computación fue en el sentido del procesamiento distribuido, así las minicomputadoras (a pesar de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del procesamiento que tenían los "mainframes".
Ventajas
Existen cuatro ventajas del procesamiento de bases de datos distribuidas. La primera, puede dar como resultado un mejor rendimiento que el que se obtiene por un procesamiento centralizado. Los datos pueden colocarse cerca del punto de su utilización, de forma que el tiempo de comunicación sea mas corto. Varias computadoras operando en forma simultánea pueden entregar más volumen de procesamiento que una sola computadora.
Segundo, los datos duplicados aumentan su confiabilidad. Cuando falla una computadora, se pueden obtener los datos extraídos de otras computadoras. Los usuarios no dependen de la disponibilidad de una sola fuente para sus datos .Una tercera ventaja, es que los sistemas distribuidos pueden variar su tamaño de un modo más sencillo. Se pueden agregar computadoras adicionales a la red conforme aumentan el número de usuarios y su carga de procesamiento. A menudo es más fácil y más barato agregar una nueva computadora más pequeña que actualizar una computadora única y centralizada. Después, si la carga de trabajo se reduce, el tamaño de la red también puede reducirse.
Por último, los sistemas distribuidos se pueden adecuar de una manera más sencilla a las estructuras de la organización de los usuarios.
omputadora
Vista expandida de una computadora personal.
1: Monitor
2: Placa base
3: Procesador
4: Puertos ATA
5: Memoria principal (RAM)
6: Placas de expansión
7: Fuente de alimentación
8: Unidad de almacenamiento óptico
9: Disco duro, Unidad de estado sólido
10: Teclado
11: Ratón
1: Monitor
2: Placa base
3: Procesador
4: Puertos ATA
5: Memoria principal (RAM)
6: Placas de expansión
7: Fuente de alimentación
8: Unidad de almacenamiento óptico
9: Disco duro, Unidad de estado sólido
10: Teclado
11: Ratón
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.
Contenido[ocultar] |
Arquitectura
A pesar de que las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron los primeros modelos en los años 40, la mayoría todavía utiliza la Arquitectura de von Neumann, publicada a principios de los años 1940 por John von Neumann, que otros autores atribuyen a John Presper Eckert y John William Mauchly.La arquitectura de Von Neumann describe una computadora con 4 secciones principales: la unidad aritmético lógica (ALU por sus siglas del inglés: Arithmetic Logic Unit), la unidad de control, la memoria central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses:
- La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
- El procesador (también llamado Unidad central de procesamiento o CPU) consta de manera básica de los siguientes elementos:
Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la unidad de control; D es un estado de la salida.
- La unidad aritmético lógica o ALU es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
- La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).
- Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de Coma Flotante
- Los dispositivos de Entrada/Salida sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.
Periféricos y dispositivos auxiliares
Monitor
El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados, o los gráficos del procesamiento de una computadora. Existen varios tipos de monitores: los de tubo de rayos catódicos (o CRT), los de pantalla de plasma (PDP), los de pantalla de cristal líquido (o LCD), de paneles de diodos orgánicos de emisión de luz (OLED), o Láser-TV, entre otros.Teclado
Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados táctiles), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).Ratón
El mouse (del inglés, pronunciado [ˈmaʊs]) o ratón es un periférico de computadora de uso manual, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la información del desplazamiento era transmitida gracias al movimiento de una bola debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón óptico apoyado en un espejo o sobre un barnizado por ejemplo es inutilizable, ya que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón debe ser opaca, una superficie que no genere un reflejo, es recomendable el uso de alfombrillas.Impresora
Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiendo en papel de lustre los datos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas a la computadora por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interna (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. Hoy en día se comercializan impresoras multifuncionales que aparte de sus funciones de impresora funcionan simultáneamente como fotocopiadora y escáner, siendo éste tipo de impresoras las más recurrentes en el mercado.Escáner
En informática, un escáner (del idioma inglés: scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato digital. Actualmente vienen unificadas con las impresoras formando MultifuncionesAlmacenamiento Secundario
El disco duro es un sistema de grabación magnética digital, es donde en la mayoría de los casos reside el Sistema operativo de la computadora. En los discos duros se almacenan los datos del usuario. En él encontramos dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos.Una Unidad de estado sólido es un sistema de memoria no volátil. Están formados por varios chips de memoria NAND Flash en su interior unidos a una controladora que gestiona todos los datos que se transfieren. Tienen una gran tendencia a suceder definitivamente a los discos duros mecánicos por su gran velocidad y tenacidad. Al no estar formadas por discos en ninguna de sus maneras, no se pueden categorizar como tal, aunque erróneamente se tienda a ello.
Altavoces
Los altavoces se utilizan para escuchar los sonidos emitidos por el computador, tales como música, sonidos de errores, conferencias, etc.- Altavoces de las placas base: Las placas base suelen llevar un dispositivo que emite pitidos para indicar posibles errores o procesos.
Otros conceptos y curiosidades
En la actualidad se puede tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. El procesamiento simultáneo viene con computadoras de más de un CPU, lo que da origen al multiprocesamiento.El sistema operativo es una especie de caja de herramientas lleno de utilerías que sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.
En la actualidad se están empezando a incluir en las distribuciones donde se incluye el sistema operativo, algunos programas muy usados, debido a que es ésta una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.
Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de los primeros computadores, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas también usó los computadores para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar los computadores para hacer sus propios análisis. El descenso continuo de los precios de los computadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a emplear un gran número de pequeños computadores para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varios pequeños computadores en un solo lugar se llamaba torre de servidores[cita requerida].
Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. Nacen los computadores personales (PC), los que se hicieron famosos para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos, calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.
Al mismo tiempo, los pequeños computadores son casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.
Actualmente, los computadores personales son usados tanto para la investigación como para el entretenimiento (videojuegos), pero los grandes computadores aún sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.
Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o computadora personal y los llamados supercomputadores sea la Workstation o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo (traducido literalmente del inglés), se usa para dar nombre a equipos que, debido sobre todo a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permiten desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa. Una Workstation es, en esencia, un equipo orientado a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PC convencionales, que aún tienen componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. En estos casos, el software es el fundamento del diseño del equipo, el que reclama, junto con las exigencias del usuario, el diseño final de la Workstation.[cita requerida]
Unidad central de procesamiento
De Wikipedia, la enciclopedia libre
La unidad central de procesamiento o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.
Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.
CPU de transistores y de circuitos integrados discretos
La complejidad del diseño de los CPU se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor. Los CPU transistorizados durante los años 1950 y los años 1960 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidos CPU más complejos y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales).Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en IC. Los CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC individuales necesarios para un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos, y luego a miles.
En 1964, IBM introdujo su arquitectura de computador System/360, que fue usada en una serie de computadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles entre sí, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", ampliamente usado aún en los CPU modernos . La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en las computadoras modernas, como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro computador que sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía un CPU integrado únicamente por cuatro circuitos integrados LSI .
Los computadores basados en transistores tenían varias ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj del CPU de decenas de megahertz. Además, mientras que los CPU de transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de las supercomputadoras especializadas, como los hechos por Cray Inc.
Memoria principal
De Wikipedia, la enciclopedia libre
La memoria principal o primaria (MP), también llamada memoria central,es una unidad dividida en celdas que se identifican mediante una dirección. Está formada por bloques de circuitos integrados o chips capaces de almacenar, retener o "memorizar" información digital, es decir, valores binarios; a dichos bloques tiene acceso el microprocesador de la computadora.La MP se comunica con el microprocesador de la CPU mediante el bus de direcciones. El ancho de este bus determina la capacidad que posea el microprocesador para el direccionamiento de direcciones en memoria.
En algunas oportunidades suele llamarse "memoria interna" a la MP, porque a diferencia de los dispositivos de memoria secundaria, la MP no puede extraerse tan fácilmente por usuarios no técnicos.
La MP es el núcleo del sub-sistema de memoria de un computador, y posee una menor capacidad de almacenamiento que la memoria secundaria, pero una velocidad millones de veces superior.
Tipos
En las computadoras son utilizados dos tipos:- ROM o memoria de sólo lectura (Read Only Memory). Viene grabada de fábrica con una serie de programas. El software de la ROM se divide en dos partes:
- Rutina de arranque o POST (Power On Self Test, auto diagnóstico de encendido): Realiza el chequeo de los componentes de la computadora; por ejemplo, circuitos controladores de video, de acceso a memoria, el teclado, unidades de disco,etc. Se encarga de determinar cuál es el hardware que está presente y de la puesta a punto de la computadora. Mediante un programa de configuración, el SETUP, lee una memoria llamada CMOS RAM (RAM de Semiconductor de óxido metálico). Ésta puede mantener su contenido durante varios años, aunque la computadora está apagada, con muy poca energía eléctrica suministrada por una batería, guarda la fecha, hora, la memoria disponible, capacidad de disco rígido, si tiene disquetera o no. Se encarga en el siguiente paso de realizar el arranque (booteo): lee un registro de arranque 'BR' (Boot Record) del disco duro o de otra unidad (como CD, USB, etc.), donde hay un programa que carga el sistema operativo a la RAM. A continuación cede el control a dicho sistema operativo y el computador queda listo para trabajar.
- Rutina BIOS o Sistema Básico de Entrada-Salida (Basic Input-Output System): permanece activa mientras se está usando el computador. Permite la activación de los periféricos de entrada/salida: teclado, monitor, ratón, etc.
- RAM o memoria de acceso aleatorio (Random Access Memory). Es la memoria del usuario que contiene de forma temporal el programa, los datos y los resultados que están siendo usados por el usuario del computador. En general es volátil, pierde su contenido cuando se apaga el computador, es decir que mantiene los datos y resultados en tanto el bloque reciba alimentación eléctrica, a excepción de la CMOS RAM.
El contenido de las memorias no es otra cosa que dígitos binarios o bits (binary digits), que se corresponden con dos estados lógicos: el 0 (cero) sin carga eléctrica y el 1 (uno) con carga eléctrica. A cada uno de estos estados se le llama bit, que es la unidad mínima de almacenamiento de datos.
El microprocesador direcciona las posiciones de la RAM para poder acceder a los datos almacenados en ellas y para colocar los resultados de las operaciones.
Al "bloque de MP", suele llamarse memoria RAM, por ser éste el tipo de chips de memoria que conforman el bloque, pero se le asocian también el chip CMOS, que almacena al programa BIOS del sistema y los dispositivos periféricos de la memoria secundaria (discos y otros periféricos), para conformar el sub-sistema de memoria del computador.
Y Dispositivos Periféricos de Salida
Los Dispositivos de Entrada:
Estos dispositivos permiten al usuario del computador introducir datos, comandos y programas en el CPU. El dispositivo de entrada más común es un teclado similar al de las máquinas de escribir. La información introducida con el mismo, es transformada por el ordenador en modelos reconocibles. Los datos se leen de los dispositivos de entrada y se almacenan en la memoria central o interna. Los Dispositivos de Entrada, convierten la información en señales eléctricas que se almacenan en la memoria central.
- Los Tipos de Dispositivos de Entrada Más Comunes Son:
- Teclado 101: El teclado pesa 1.1 Lb y mide 11.6 Pulgadas de ancho, 4.3 pulgadas de profundidad y 1.2 de altura. Entre los accesorios disponibles se encuentran: cableado para Sun, PC(PS/2) y computadoras Macintosh. Las dimensiones de este teclado son su característica principal. Es pequeño. Sin embargo se siente como un teclado normal.
- Teclado Ergonómico: Al igual que los teclados normales a través de éste se pueden introducir datos a la computadora pero su característica principal es el diseño del teclado ya que éste evita lesiones y da mayor comodidad al usuario, ya que las teclas se encuentran separadas de acuerdo al alcance de nuestras manos, lo que permite mayor confort al usuario.
- Teclado para Internet: El nuevo Internet Keyboard incorpora 10 nuevos botones de acceso directo, integrados en un teclado estándar de ergonómico diseño que incluye un apoya manos. Los nuevos botones permiten desde abrir nuestro explorador Internet hasta ojear el correo electrónico. El software incluido, posibilita la personalización de los botones para que sea el teclado el que trabaje como nosotros queramos que lo haga.
- Teclado Alfanumérico: Es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt, etc; se utiliza principalmente para introducir texto.
- Teclado de Función: Es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
- Teclado Numérico: Se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta, etc.
- Teclado Especial: Son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.
- Teclado de Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
- Teclado Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario.
(Ver fig. nº 2)
A este periférico se le llamó así por su parecido con un roedor.
Existen modelos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado.
Al igual que el teclado, el Mouse es el elemento periférico que más se utiliza en una PC (Aunque en dado caso, se puede prescindir de él).
Los "ratones" han sido los elementos que más variaciones han sufrido en su diseño.
Tipos de Mouse: Existen diferentes tecnologías con las que funciona el Mouse:
- Mecánica: era poco precisa y estaba basada en contactos físicos eléctricos a modo de escobillas que en poco tiempo comenzaban a fallar.
- Óptica: es la más utilizada en los "ratones" que se fabrican ahora.
- Opto mecánica: son muy precisos, pero demasiado caros y fallan a menudo.
- Mouse Óptico Mouse Trackball: Es una superficie del tamaño de una tarjeta de visita por la que se desliza el dedo para manejar el cursor, son estáticos e ideales para cuando no se dispone de mucho espacio.
c) Micrófono: Los micrófonos son los transductores encargados de transformar energía acústica en energía eléctrica, permitiendo, por lo tanto el registro, almacenamiento, transmisión y procesamiento electrónico de las señales de audio. Son dispositivos duales de los altoparlantes, constituyendo ambos transductores los elementos mas significativos en cuanto a las características sonoras que sobre imponen a las señales de audio. (Ver fig. nº3)
Existen los llamados micrófonos de diadema que son aquellos, que, como su nombre lo indica, se adhieren a la cabeza como una diadema cualquiera, lo que permite al usuario mayor comodidad ya no necesita sostenerlo con las manos, lo que le permite realizar otras actividades.
d) Scanner: Es una unidad de ingreso de información. Permite la introducción de imágenes gráficas al computador mediante un sistema de matrices de puntos, como resultado de un barrido óptico del documento. La información se almacena en archivos en forma de mapas de bits (bit maps), o en otros formatos más eficientes como Jpeg o Gif.
Existen scanners que codifican la información gráfica en blanco y negro, y a colores. Así mismo existen scanners de plataforma plana fija (Cama Plana) con apariencia muy similar a una fotocopiadora, y scanners de barrido manual. Los scanners de cama plana pueden verificar una página entera a la vez, mientras que los portátiles solo pueden revisar franjas de alrededor de 4 pulgadas. Reconocen imágenes, textos y códigos de barras, convirtiéndolos en código digital.
Los exploradores gráficos convierten una imagen impresa en una de video (Gráficos por Trama) sin reconocer el contenido real del texto o las figuras. (Ver fig. nº 4)
e) Cámara Digital: se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos:
- Cámara de Fotos Digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador.
- Cámara de Video: Graba videos como si de una cámara normal, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado.
- Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso es generalmente para videoconferencias por Internet, pero mediante el software adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas. (Ver fig. nº 5)
- Lector de Código de Barras: Dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos. (Ver fig. nº 6)
- Lápices Ópticos: Es una unidad de ingreso de información que funciona acoplada a una pantalla fotosensible. Es un dispositivo exteriormente semejante a un lápiz, con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible. No requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario. (Ver fig. nº 7)
i) Tarjetas Perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm. (3 pulgadas) de ancho por 18 cm. (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas perforadas.
2.- Los Dispositivos de Salida:
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor.
- Los tipos de Dispositivos de Salida más Comunes Son:
Puntos a Tratar en un Monitor:
- Resolución: Se trata del número de puntos que puede representar el monitor por pantalla, en horizontal x vertical. Un monitor cuya resolución máxima sea 1024x 768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una.
- Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe estar por encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.
- Tamaño de punto (Dot Pitch): Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.
En nada se parecen las impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. (Ver fig. nº 10)
Hay Varios Tipos:
- Matriciales: Ofrecen mayor rapidez pero una calidad muy baja.
- Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa velocidad, calidad y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las mismas características. Claro está que hay razones de peso que justifican éstas características, pero para imprimir algunas cartas, facturas y pequeños trabajos, el rendimiento es similar y el costo muy inferior. Hablamos de impresoras de color porque la tendencia del mercado es que la informática en conjunto sea en color. Esta tendencia empezó hace una década con la implantación de tarjetas gráficas y monitores en color. Todavía podemos encontrar algunos modelos en blanco y negro pero ya no son recomendables.
- Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto costo y solo se suelen utilizar en la mediana y grande empresa. Por medio de un haz de láser imprimen sobre el material que le pongamos las imágenes que le haya enviado la CPU.
d) Auriculares: Son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza. (Ver fig. nº 12)
e) Bocinas: Cada vez las usa más la computadora para el manejo de sonidos, para la cual se utiliza como salida algún tipo de bocinas. Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad en watts que poseen.
f) Multimedia: Combinación de Hardware y Software que puede reproducir salidas que emplean diversos medios como texto, gráficos, animación, video, música, voz y efectos de sonido.
g) Plotters (Trazador de Gráficos): Es una unidad de salida de información que permite obtener documentos en forma de dibujo.
Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos colores de tinta en los rapidógrafos).
h) Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta.
I) Data Show (Cañón): Es una unidad de salida de información. Es básicamente una pantalla plana de cristal líquido, transparente e independiente. Acoplado a un retro proyector permite la proyección amplificada de la información existente en la pantalla del operador.
Como se ha podido observar existen muchos tipos de dispositivos que utiliza la computadora y que son indispensables para poder comunicarnos con la máquina. Un ejemplo muy claro lo es el Teclado y el Mouse.
A lo largo del tiempo, se ha demostrado que la tecnología avanza cada día más en busca de mejores cosas y mayor comodidad para el usuario.
Por ello debemos tener en cuenta como utilizar los dispositivos periférico del ordenador para obtener un mayor aprovechamiento de cada uno de estos y hacer nuestro trabajo más rápido y con la mayor comodidad posible, para lograr facilitar nuestras labores cotidianas en las ayuda de estas maquinas.
- Omitir Información redundante, debido que lo único que lograremos con esto es darle volumen al trabajo, cuando lo que debemos hacer, es introducir información y datos concretos, que nos permitan llegar a una conclusión sólida y podamos comprender al máximo, el tema que se esta planteando.
- Verificar periódicamente los nuevos avances tecnológicos que tengan incidencia sobre los dispositivos de entrada y salida de un ordenador para así lograr actualizar el trabajo y poder informar sobre los nuevos avances al resto de la población.
DISPOSITIVOS DE ENTRADA/SALIDA
FUNCIONAMIENTO DEL ORDENADOR
|
Placa base (mother board), donde aparecen los pasos que sigue la inicialización del ordenador para su puesta en funcionamiento a partir del momento que oprimimos el botón de encendido. |
Una vez que el BIOS recibe la orden del microprocesador, el POST comienza a ejecutar una secuencia de pruebas diagnósticas para comprobar sí la tarjeta de vídeo (6), la memoria RAM (7), las unidades de discos [disquetera si la tiene, disco duro (8), reproductor y/o grabador de CD o DVD], el teclado, el ratón y otros dispositivos de hardware conectados al ordenador, se encuentran en condiciones de funcionar correctamente.
Cuando el BIOS no puede detectar un determinado dispositivo instalado o detecta fallos en alguno de ellos, se oirán una serie sonidos en forma de “beeps” o pitidos y aparecerán en la pantalla del monitor mensajes de error, indicando que hay problemas. En caso que el BIOS no detecte nada anormal durante la revisión, se dirigirá al boot sector (sector de arranque del disco duro) para proseguir con el arranque del ordenador.
Durante el chequeo previo, el BIOS va mostrando en la pantalla del monitor diferentes informaciones con textos en letras blancas y fondo negro. A partir del momento que comienza el chequeo de la memoria RAM, un contador numérico muestra la cantidad de bytes que va comprobando y, si no hay ningún fallo, la cifra que aparece al final de la operación coincidirá con la cantidad total de megabytes instalada y disponible en memoria RAM que tiene el ordenador para ser utilizada.
Durante el resto del proceso de revisión, el POST muestra también en el monitor un listado con la relación de los dispositivos de almacenamiento masivo de datos que tiene el ordenador instalados y que han sido comprobados como, por ejemplo, el disco o discos duros y el lector/grabador de CD o DVD si lo hubiera.
Cualquier error que encuentre el BIOS durante el proceso de chequeo se clasifica como “no grave” o como “grave”. Si el error no es grave el BIOS sólo muestra algún mensaje de texto o sonidos de “beep” sin que el proceso de arranque y carga del Sistema Operativo se vea afectado. Pero si el error fuera grave, el proceso se detiene y el ordenador se quedará bloqueado o colgado. En ese caso lo más probable es que exista algún dispositivo de hardware que no funcione bien, por lo que será necesario revisarlo, repararlo o sustituirlo.
Cuando aparecieron los primeros ordenadores personales no existían todavía los discos duros, por lo que tanto el sistema operativo como los programas de usuarios había que cargarlos en la memoria RAM a partir de un disquete que se colocaba en la disquetera. Cuando surgió el disco duro y no existían todavía los CDs, los programas se continuaron introduciendo en el ordenador a través de la disquetera para grabarlos de forma permanente en el disco duro, para lo que era necesario utilizar, en la mayoría de los casos, más de un disquete para instalar un solo programa completo. Por ese motivo, hasta la aparición de los lectores de CDs, el programa POST de la BIOS continuaba dirigiéndose primero a buscar el sistema operativo en la disquetera y si como no lo encontraba allí, pasaba entonces a buscarlo en el disco duro.
Si por olvido al apagar esos antiguos ordenadores se nos había quedado por olvido algún disquete de datos introducido en la disquetera, al encender de nuevo el equipo el proceso de inicialización se detenía a los pocos segundos, porque el BIOS al leer el contenido de ese disquete encontraba otro tipo de datos y no el sistema operativo. Cuando eso ocurría solamente había que extraer el disquete de la disquetera y oprimir cualquier tecla en el teclado. De inmediato el BIOS continuaba la búsqueda, dirigiéndose al disco duro, lugar donde se encontraba y encontramos grabado todavía el sistema operativo, incluso en los ordenadores más actuales.
bytes
Byte
De Wikipedia, la enciclopedia libre
Byte es una palabra inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto (es decir a ocho bits), para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.Se usa comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término "octeto" se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bits).
Significados
La palabra "byte" tiene numerosos significados íntimamente relacionados:- Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.
- Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bits se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits.
[editar] Historia
El término byte fue acuñado por Waner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que era una tupla de n bits y que se permitían otros tamaños.- Es una secuencia contigua de bits binarios en un flujo de datos serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco duro, que es la unidad de datos más pequeña con significado. Estos bytes pueden incluir bits de inicio, parada o paridad y podrían variar de 7 a 12 bits para contener un código ASCII de 7 bits sencillo.
- Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. C, por ejemplo, define byte como "unidad de datos de almacenamiento direccionable lo suficientemente grande para albergar cualquier miembro del juego de caracteres básico del entorno de ejecución" (cláusula 3.6 del C estándar). En C el tipo de datos
unsigned char
tiene que al menos ser capaz de representar 256 valores distintos (cláusula 5.2.4.2.1). La primitiva de Javabyte
está siempre definida con 8 bits siendo un tipo de datos con signo, tomando valores entre –128 y 127.
[editar] Palabras alternativas
Los bytes de 8 bits a menudo se llaman "octetos" en contextos formales como los estándares industriales, así como en redes informáticas y telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses.La mitad de un byte de ocho bits se llama nibble o un dígito hexadecimal. El nibble a menudo se llama semiocteto en redes o telecomunicaciones y también por algunas organizaciones de estandarización. Además, una cantidad de 2 bits se llama crumb, aunque raramente se utiliza.
Significados
La palabra "byte" tiene numerosos significados íntimamente relacionados:- Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.
- Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bits se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits.
[editar] Historia
El término byte fue acuñado por Waner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que era una tupla de n bits y que se permitían otros tamaños.- Es una secuencia contigua de bits binarios en un flujo de datos serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco duro, que es la unidad de datos más pequeña con significado. Estos bytes pueden incluir bits de inicio, parada o paridad y podrían variar de 7 a 12 bits para contener un código ASCII de 7 bits sencillo.
- Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. C, por ejemplo, define byte como "unidad de datos de almacenamiento direccionable lo suficientemente grande para albergar cualquier miembro del juego de caracteres básico del entorno de ejecución" (cláusula 3.6 del C estándar). En C el tipo de datos
unsigned char
tiene que al menos ser capaz de representar 256 valores distintos (cláusula 5.2.4.2.1). La primitiva de Javabyte
está siempre definida con 8 bits siendo un tipo de datos con signo, tomando valores entre –128 y 127.
[editar] Palabras alternativas
Los bytes de 8 bits a menudo se llaman "octetos" en contextos formales como los estándares industriales, así como en redes informáticas y telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses.La mitad de un byte de ocho bits se llama nibble o un dígito hexadecimal. El nibble a menudo se llama semiocteto en redes o telecomunicaciones y también por algunas organizaciones de estandarización. Además, una cantidad de 2 bits se llama crumb, aunque raramente se utiliza.
bits
De Wikipedia, la enciclopedia libre
En arquitectura de computadoras, 64 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 64 bits (8 octetos) de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.Los microprocesadores de 64 bits han existido en las supercomputadoras desde 1960 y en servidores y estaciones de trabajo basadas en RISC desde mediados de los años 1990. En 2003 empezaron a ser introducidos masivamente en las computadoras personales (previamente de 32 bits) con las arquitecturas x86-64 y los procesadores PowerPC G5.
Aunque una CPU puede ser internamente de 64 bits, su bus de datos o bus de direcciones externos pueden tener un tamaño diferente, más grande o más pequeño y el término se utiliza habitualmente para describir también el tamaño de estos buses. Por ejemplo, muchas máquinas actuales con procesadores de 32 bits usan buses de 64 bits (p.ej. el Pentium original y las CPUs posteriores) y pueden ocasionalmente ser conocidas como "64 bits" por esta razón. El término también se puede referir al tamaño de las instrucciones dentro del conjunto de instrucciones o a cualquier otro elemento de datos (p.ej. las cantidades de 64 bits de coma flotante de doble precisión son comunes). Sin más calificaciones, sin embargo, la arquitectura de las computadoras de 64 bits tiene integrados registros que son de 64 bits, que permite procesar (interna y externamente) datos de 64 bits.
Implicaciones de arquitectura
Los registros en un procesador se dividen generalmente en tres grupos: enteros, coma flotante y otros. En todos los procesadores de propósito general, sólo los registros enteros pueden almacenar punteros (una dirección de algún dato en memoria). Los registros que no son de enteros no se pueden utilizar para almacenar punteros para leer o escribir memoria y por tanto no se pueden utilizar para evitar cualesquiera restricciones impuestas por el tamaño de los registros enteros.Casi todos los procesadores de propósito general (con la notable excepción de muchos ARM e implementaciones MIPS de 32 bits) han integrado hardware de coma flotante, que puede o no utilizar registros de 64 bits para transportar datos con el fin de procesarlos. Por ejemplo, la arquitectura X86 incluye instrucciones de coma flotante del x87 que utiliza 8 registros de 80 bits en una configuración en forma de pila; revisiones posteriores del x86 y la arquitectura x86-64 también incluyen instrucciones SSE que utilizan 8 registros de 128 bits (16 registros en el x86-64). En contraste, el procesador de 64 bits de la familia DEC Alpha define 32 registros de coma flotante de 64 bits además de sus 32 registros de enteros de 64 bits.
[editar] Limitaciones de memoria
Muchas CPUs están actualmente (en 2009) diseñadas para que los contenidos de un único registro puedan almacenar la dirección de memoria de cualquier dato en la memoria virtual. Por tanto, el número total de direcciones en memoria virtual — la suma total de datos que la computadora puede mantener en su área de trabajo — es determinado por el ancho de estos registros. Empezando en los años 1960 con el IBM S/360, luego (entre muchos otros) la computadora VAX de DEC en los años 1970 y luego con el Intel 80386 a mediados de los años 1980, un consenso de facto instauró que 32 bits era un tamaño conveniente de registro. Un registro de 32 bits significa que se puede referenciar 232 direcciones o 4 gigabytes de RAM. En el momento en que estas arquitecturas fueron concebidas, 4 gigabytes de memoria estaban muy lejos de las cantidades disponibles en instalaciones que se consideraban suficiente "espacio" para direccionamiento. Las direcciones de 4 gigabytes se consideraban un tamaño apropiado con el que trabajar por otra importante razón: 4 mil millones de enteros son suficientes para asignar referencias únicas a la mayoría de cosas físicamente contables en aplicaciones como bases de datos.No obstante, con el paso del tiempo y las continuas reducciones en el coste de la memoria (véase la Ley de Moore), al comienzo de los años 1990, comenzaron a aparecer instalaciones con cantidades de RAM próximas a los 4 gigabytes, y comenzó a ser deseable el uso de espacios de memoria virtual que superaban el límite de 4 gigabytes para manejar ciertos tipos de problemas. Como respuesta, varias empresas empezaron a lanzar nuevas familias de chips con arquitecturas de 64 bits, inicialmente para supercomputadoras, estaciones de trabajo de grandes prestaciones y servidores. Las computadoras de 64 bits se han ido moviendo hacia la computadora personal, comenzando en 2003 con la innovadora tecnología AMD64 (denominada genéricamente x86-64 por su completa compatibilidad inversa con los sistemas x86), los AMD's K8 (Athlon 64) y la arquitectura PowerPC de Macintosh de Apple Computer con los procesadores PowerPC 970 G5 Antares, y a procesadores EM64T en el 2006, basadas también en tecnología x86-64, llegando a ser comunes en PC de gama alta. La aparición de la arquitectura de 64 bits efectivamente incrementa el límite a 264 direcciones, equivalente a 17,179,869,184 gigabytes o 16 exabytes de RAM. Para poner esto en perspectiva, en los días en que 4 MB de memoria principal eran comunes, el límite máximo de memoria de 232 direcciones era unas 1000 veces mayor que la configuración típica de memoria. En 2007, cuando 1GB de memoria principal es común, el límite de 264 es unos diez mil millones de veces superior, es decir diez millones de veces más de espacio.
Muchos PC de 64 bits del mercado tienen actualmente un límite artificial en la cantidad de memoria que pueden reconocer, pues las limitaciones físicas hacen muy poco probable que se vaya a necesitar soporte para los 16 exabytes de capacidad total. El Mac Pro de Apple, por ejemplo, puede configurarse físicamente con hasta 32 gigabytes de memoria, y por ello no hay necesidad de soportar más allá de esa cantidad. Un núcleo linux reciente (versión 2.6.16) puede ser compilado con soporte para hasta 64 gigabytes de memoria. Según Apple la nueva versión de su sistema operativo teóricamente direcciona 16 Terabytes de memoria.[1]
[editar] Cronología del procesador de 64 bits
- 1961: IBM lanzó la supercomputadora IBM 7030 Stretch. Este utilizaba palabras de 64 bits e instrucciones de 32 o 64 bits.
- 1974: Control Data Corporation lanzó la supercomputadora vectorial CDC Star-100, que utiliza una arquitectura de palabras de 64 bits (los sistemas previos de CDC estaban basados en arquitecturas de 60 bits).
- 1976: Cray Research lanzó la primera computadora Cray-1. Este estaba basado en una arquitectura de palabras de 64 bits, que sentó las bases para los posteriores supercomputadoras vectoriales de Cray.
- 1983: Elxsi lanzó la mini supercomputadora Elxsi 6400 paralelo. La arquitectura Elxsi tenía registros de datos de 64 bits pero un espacio de direcciones de 32 bits.
- 1991: MIPS Technologies produjo el primer microprocesador de 64 bits, como la tercera revisión de la arquitectura RISC MIPS, el R4000. La CPU fue utilizada en las estaciones de trabajo de Silicon Graphics empezando con el IRIS Crimson. Sin embargo, el soporte de 64 bits para el R4000 no se incluyó en el sistema operativo IRIX hasta la versión IRIX 6.2 en 1996.
- 1992: Digital Equipment Corporation (DEC) introdujo el Alpha con una arquitectura pura de 64 bits que nació del proyecto PRISM.
- 1993: DEC lanzó los sistemas operativos de 64 bits estilo UNIX Tru64 y el OpenVMS para Sistemas Alpha.
- 1994: Intel anunció sus planes para la arquitectura IA-64 de 64 bits (desarrollada conjuntamente con HP) como sucesor de su procesador de 32 bits IA-32. SGI lanzó el IRIX 6.0 con soporte de 64 bits para las CPUs R8000.
- 1995: Sun lanzó un procesador SPARC de 64 bits, el UltraSPARC. HAL Computer Systems propiedad de Fujitsu lanzó estaciones de trabajo basadas en una CPU de 64 bits, HAL independientemente diseñó la primera generación de SPARC64. IBM lanzó los sistemas AS/400 de 64 bits, con la posibilidad de actualizar el sistema operativo, las bases de datos y las aplicaciones. DEC lanzó el OpenVMS Alpha 7.0, la primera versión completa de 64 bits de OpenVMS para Alpha.
- 1996: HP lanzó una implementación de 64 bits, la versión 2.0 de su arquitectura de procesador PA-RISC, el PA-8000. Nintendo introdujo la consola de videojuegos Nintendo 64, construida con una variante de bajo coste del MIPS R4000.
- 1998: IBM lanzó su procesador POWER3 completamente de 64 bits de la familia PowerPC/POWER. Sun lanzó Solaris 7, con soporte completo para UltraSPARC de 64 bits.
- 1999: Intel publicó el conjunto de instrucciones para la arquitectura IA-64. Primera revelación pública del juego de extensiones de 64 bits al IA-32 de AMD (posteriormente renombrado como AMD64).
- 2000: IBM estrenó su primer mainframe de 64 bits, el z900 y su nuevo sistema operativo, el Z/OS — culminando el mayor desarrollo de la historia de investigación de un procesador de 64 bits e instantáneamente borrando la compatibilidad con las máquinas de 31 bits de sus competidores Fujitsu/Amdahl e Hitachi. Un Linux para zSeries de 64 bits apareció casi inmediatamente.
- 2001: Intel finalmente lanzó su línea de procesadores de 64-bit, con la marca Itanium, teniendo como objetivo servidores de gama alta. No cumplió las expectativas debido a los repetidos retrasos del lanzamiento del IA-64 al mercado y se convirtió en un fracaso. Linux fue el primer sistema operativo en esta versión de procesador.
- 2002: Intel introdujo el Itanium 2 como sucesor del Itanium.
- 2003: AMD sacó a la luz sus líneas de procesadores con arquitectura AMD64 Opteron y Athlon 64. Apple lanzó también sus CPUs PowerPC 970 "G5" de 64 bits por cortesía de IBM, junto con una actualización de su sistema operativo Mac OS X, que añadió soporte parcial para el modo de 64 bits. Se publicaron varias distribuciones Linux con soporte para AMD64. Microsoft anunció que crearía una versión de su sistema operativo Windows para esos chips AMD. Intel sostuvo que sus chips Itanium serían sus únicos procesadores de 64 bits.
- 2004: Intel, reaccionando al éxito de mercado de AMD, admitió que había estado desarrollando un clon de las extensiones AMD64, al que llamó IA-32e y posteriormente renombró como EM64T. Se lanzaron versiones actualizadas de sus familias de procesadores Xeon y Pentium 4 que soportaban las nuevas instrucciones. Freescale anuncia su núcleo e700, sucesor de su familia PowerPC G4.
- 2005: El 31 de enero, Sun lanzó Solaris 10 con soporte para los procesadores AMD64 y EM64T. En marzo, Intel anunció que sus primeros procesadores EM64T de doble núcleo se pondrían a la venta en el segundo cuatrimestre de 2005 con la publicación de su Pentium Extreme Edition 840 y los nuevos chips Pentium D. El 30 de abril, Microsoft lanzó públicamente su Windows XP Professional x64 Edition para procesadores AMD64 y EM64T. En mayo, AMD introdujo sus primeros procesadores para servidores Opteron AMD64 de doble núcleo y anunció su versión de escritorio, llamada Athlon 64 X2. Los primeros procesadores Athlon 64 X2 (Toledo) contaban con dos núcleos con una memoria caché L2 de 1MB y consistían de aproximadamente 233,2 millones de transistores. Tenían un tamaño de 199 mm2. En julio, IBM anunció sus nuevos procesadores PowerPC 970MP (cuyo nombre en código era Antares) de doble núcleo y 64 bits usados por IBM y Apple. Microsoft lanzó la consola Xbox 360 que usaba el procesador PowerPC de 64 bits Xenon, fabricado por IBM.
- 2006: Se pusieron en producción los procesadores Itanium 2 Montecito de doble núcleo. Sony, IBM y Toshiba comenzaron a fabricar el procesador Cell para su uso en la PlayStation 3, servidores, estaciones de trabajo y otros dispositivos. Apple incorporó procesadores Xeon EM64T de 64 bits en su nuevo Mac Pro y sus computadoras Intel Xserve, y posteriormente actualizó el iMac, el MacBook y el MacBook Pro con procesadores EM64T Intel Core 2 Duo.
Una excepción significativa de esto es el AS/400, cuyo software se ejecuta en un conjunto de instrucciones virtual, llamado TIMI (Technology Independent Machine Interface) que se traduce a código nativo por software de bajo nivel antes de ser ejecutado. El software de bajo nivel es todo lo que ha de ser reescrito para portar todo el SO y el software a una nueva plataforma, como cuando IBM hizo la transición de su línea desde los antiguos juegos de instrucciones de 32/48 ("IMPI") al PowerPC de 64 bits (IMPI no tenía nada que ver con el PowerPC de 32 bits, así que fue incluso una transición mayor que la de un juego de instrucciones de 32 bits a su equivalente de 64 bits).
Mientras las arquitecturas de 64 bits incontestablemente hacen más sencillo el trabajar con grandes conjuntos de datos en aplicaciones como el vídeo digital, computación científica y grandes bases de datos, ha habido un debate considerable sobre si los modos de compatibilidad con 32 bits serán más rápidos que los sistemas de 32 bits del mismo precio para otras tareas. En las arquitecturas x86-64 (AMD64 y EM64T, IA-32e), la mayoría de los sistemas operativos de 32 bits y aplicaciones pueden ejecutarse sin problemas en el hardware de 64 bits.
Las máquinas virtuales de JAVA de 64 bits de Sun son más lentas en el arranque que las de 32 bits porque Sun sigue asumiendo que todas las máquinas de 64 bits son servidores y sólo han implementado el compilador de "servidor" (C2) para plataformas de 64 bits. El compilador "cliente" (C1) produce código más lento, pero compila mucho más rápido. Así que aunque un programa Java en una JVM de 64 bits puede funcionar mejor en un periodo grande de tiempo (típico de aplicaciones "servidoras" de ejecución larga), su tiempo de arranque será probablemente mucho mayor. Para aplicaciones de vida corta (como el compilador de Java, javac) el incremento en el tiempo de arranque puede dominar el tiempo de ejecución, haciendo la JVM de 64 bits más lenta en conjunto.
Debería notarse que la velocidad no es el único factor por considerar en una comparación de procesadores de 32 bits y 64 bits. Usos como la multitarea, las pruebas de carga y el clustering (para computación de alto rendimiento) pueden ser más idóneos para una arquitectura de 64 bits teniendo en cuenta un desarrollo correcto. Los clusters de 64 bits han sido ampliamente usados en grandes organizaciones como IBM, Vodafone, HP y Microsoft, por esta razón.
Aun así estaremos "obligados" a migrar a 64 bits antes del "Efecto 2038", por un bug referido con el tiempo (muy similar al "Efecto 2000") y que afecta a sistemas Unix y basados en Unix, ya que la representación del tiempo es basada en el sistema POSIX, que se basa en contar el número de segundos transcurridos desde el 1 de enero de 1970 a las 00:00:00 (ignorando los segundos intercalares).En la mayoría de los sistemas de 32 bits time_t es un entero de 32 bits con signo, y una vez que el valor llege a 2.147.483.647 (2038-19-01 03:14:07 UTC)al segundo siguiente saltara al valor -2.147.483.648 (1901-13-12 o 1970-01-01). En cambio, en la mayoría de los sistemas de 64 bits se utilizan enteros de 64 bits en time_t, lo cual soluciona el problema por unos miles de millones de años.
[editar] Pros y contras
Las arquitecturas de 64 bits no son mejores que las de 32 bits, a menos que la computadora tenga más de 4 GB de memoria. Esto no es completamente cierto:- Algunos sistemas operativos reservan porciones de espacio de direcciones de procesos para uso del SO, reduciendo el espacio total de direcciones disponible para asignar memoria para programas de usuario. Por ejemplo, las DLLs de Windows XP y los componentes de usuario del SO están asignados en cada espacio de direcciones de proceso, dejando sólo entre 2 y 3.75 GB (dependiendo de la configuración) de espacio de direcciones disponible, incluso si la computadora tiene 4 GB de RAM. Esta restricción solo está presente en las versiones de Windows de 32 bits, que no tiene habilitado el PAE.
- La asignación en memoria de archivos es menos útil con arquitecturas de 32 bits, especialmente con la introducción de tecnología de grabación de DVD relativamente económica. Un archivo de 4 GB ya no es inusual y tales archivos grandes no pueden ser asignados fácilmente con arquitecturas de 32 bits; sólo se puede asignar una región del archivo en el espacio de direcciones y para acceder al archivo usando asignación de memoria, estas regiones deben ser localizadas dentro y fuera del espacio de direcciones según sea necesario. Esta es una cuestión clave, ya que la asignación de memoria es uno de los métodos más eficientes para transportar datos del disco a la memoria, cuando es correctamente implementado por el SO.
Actualmente, muchos programas comerciales están construidos como código de 32 bits, no de 64 bits, así que no pueden obtener ventajas de los grandes espacios de direcciones de 64 bits o de registros de 64 bits más anchos y las rutas de datos en procesadores de 64 bits o, en procesadores x86, de los registros adicionales en el modo de 64 bits. Sin embargo, los usuarios de sistemas operativos libres o de código abierto han podido utilizar entornos exclusivos de 64 bits durante años. No todas las aplicaciones necesitan un gran espacio de direcciones o manipular elementos de 64 bits, así que no se beneficiarían de los grandes espacios de direcciones o de los registros más anchos y las rutas de datos; el principal beneficio para las aplicaciones de 64 bits que no se beneficiarían de nada de esto sería que las versiones x86 podrían usar más registros.
[editar] Disponibilidad del Software
Los sistemas de 64 bits algunas veces carecen de software equivalente escrito para arquitecturas de 32 bits. Los problemas más graves son debidos a controladores de dispositivo incompatibles. Aunque gran parte del software puede ejecutarse en modo de compatibilidad con 32 bits (también conocido como un modo emulado, p. ej. la Tecnología Microsoft WoW64), normalmente es imposible ejecutar un controlador de dispositivo o un programa similar, en ese modo ya que habitualmente se ejecuta entre el SO y el hardware, donde no se puede usar la emulación directa. Muchos paquetes de software de código abierto pueden simplemente ser compilados para trabajar en un entorno de 64 bits en sistemas operativos como GNU/Linux. Todo lo que se necesitaría en este caso es un compilador (normalmente GCC) para la máquina de 64 bits.[editar] Modelos de datos de 64 bits
La conversión de aplicaciones escritas en lenguajes de alto nivel desde una arquitectura de 32 bits a una de 64 bits varía en dificultad. Un problema común recurrente es que algunos programadores asumen que los punteros tienen la misma longitud que otros tipos de datos. Esos programadores asumen que pueden transferir cantidades entre estos tipos de datos sin perder información. Estos supuestos se dan realmente en algunas máquinas de 32 bits (e incluso en algunas de 16 bits), pero no se dan en máquinas de 64 bits. El lenguaje de programación C y su descendiente el C++ hacen particularmente fácil cometer este tipo de errores.Para evitar este error en C y C++, se puede utilizar el operador
sizeof
para determinar el tamaño de estos tipos primitivos si se necesitan tomar decisiones basadas en el tamaño en tiempo de ejecución. También la cabecera <limits.h> en el estándar C99 y la clase numeric_limits en la cabecera <limits> en el estándar de C++, dan más información útil; sizeof sólo devuelve el tamaño en caracteres, lo que es a veces engañoso, porque el propio tamaño de un carácter (CHAR_BITS
) no está definido de la misma manera en todas las implementaciones de C o C++. Se necesita ser cuidadoso para usar el tipo ptrdiff_t
(en la cabecera estándar <stddef.h>
) para el resultado de restar dos punteros, demasiado código incorrecto utiliza "int" o "long" en su lugar. Para representar un puntero (más que un puntero diferencia) como un entero, se usa uintptr_t
cuando está disponible (sólo está definida en C99, pero algunos compiladores anteriores al estándar lo cumplen ofreciéndolo como una extensión).Ni C ni C++ definen la longitud de un puntero, ni de datos int ni long a un número de bits específicos.
En muchos entornos de programación en máquinas de 32 bits, los punteros, las variables "int" y las variables "long" tienen todos 32 bits de longitud.
Sin embargo, en muchos entornos de programación en máquinas de 64 bits, las variables "int" siguen teniendo 32 bits de longitud y los punteros tienen 64 bits de longitud. Son descritos como poseedores de un modelo de datos LP64. Otra alternativa es el modelo de datos ILP64 en el que los tres tipos de datos tiene 64 bits de longitud. No obstante, en muchos casos las modificaciones necesarias son relativamente menores y sencillas, y muchos programas bien escritos pueden ser simplemente recompilados para el nuevo entorno sin cambios. Otra alternativa es el modelo de datos LLP64 que mantiene la compatibilidad con el código de 32 bits dejando tanto int como long con 32 bits de longitud. "LL" hace referencia al tipo "long long", que tiene al menos 64 bits en todas las plataformas, entornos de 32 bits incluidos. Muchos compiladores de 64 bits actuales usan el modelo LP64 (incluyendo Solaris, AIX, HP, Linux y los compiladores nativos de MacOS). El compilador VC++ de Microsoft usa el modelo LLP64 que es más compatible retroactivamente.
Advierta que la elección de un modelo de programación se hace al compilar, y varios modelos pueden coexistir en el mismo SO. No obstante, generalmente suele predominar el modelo de programación elegido por la API del sistema operativo como modelo primario.
Otro detalle a tener en cuenta es el modelo de datos usado para los controladores de dispositivos. Los controladores de dispositivos conforman la mayor parte del código del sistema operativo en la mayoría de los sistemas operativos modernos (aunque muchos puedan no ser cargados mientras el sistema operativo se ejecuta). Muchos controladores hacen un frecuente uso de punteros para manipular datos, y en algunos casos han de cargar punteros de un tamaño determinado en el hardware que soportan para realizar DMA. Por ejemplo, un controlador para un dispositivo PCI de 32 bits solicitando al dispositivo transferir datos usando DMA a áreas superiores de la memoria de una máquina de 64 bits podría no satisfacer las peticiones del sistema operativo de cargar datos desde el dispositivo a la memoria por encima de la barrera de los 4 gibibytes, pues los punteros para esas direcciones no cabrían en los registros DMA del dispositivo. Este problema se soluciona haciendo que el sistema operativo tenga en cuenta las restricciones de memoria del dispositivo a la hora de generar peticiones de DMA a los dispositivos, o bien usando una IOMMU.
LAS TECNOLOGIAS FUTURAS
¿El próximo gran descubrimiento? El memristor, un componente microscópico que puede “recordar” los estados eléctricos incluso cuando está apagado, pero que debe resultar mucho más barato y rápido que el almacenamiento flash. Este concepto teórico que se viene desarrollando desde 1971 ahora ha sido construido en los laboratorios y ya comienza a revolucionar todo lo que conocemos de la computación; en menos de una década posiblemente hará obsoletas la memoria flash, la RAM y hasta las unidades de disco duro.
El memristor es sólo uno de los increíbles adelantos tecnológicos que están proyectando una onda expansiva por el mundo de la computación. Otras innovaciones que veremos pronto son más prácticas, pero también marcarán hitos importantes. Desde las tecnologías que por fin harán realidad la oficina sin papeles hasta las capaces de enviar electricidad a través de una habitación sin necesidad de cables, estos adelantos convertirán a la humilde PC en una cosa muy distinta al inicio de la próxima década.
En las secciones siguientes, destacamos los fundamentos de 15 tecnologías futuras, con pronósticos de lo que puede pasar con ellas. Algunas están al doblar de la esquina; otros adelantos todavía están fuera de nuestro alcance. Y a todos hay que prestarles atención...
Dentro de su PC
Un nuevo circuito innovador
Desde los albores de la electrónica, sólo hemos tenido tres tipos de componentes de circuitos: resistencias (también llamados resistores), bobinas (también llamados inductores o inductancias) y condensadores. Pero en 1971 Leon Chua, un investigador de la Universidad de California en Berkeley, teorizó la posibilidad de un cuarto tipo de componente que podría medir el flujo de corriente eléctrica: el memristor. Ahora, 37 años más tarde, Hewlett-Packard ha construido uno.
¿En qué consiste? Como su nombre implica, el memristor puede “recordar” cuánta corriente ha pasado por él. Y alternando la cantidad de corriente que pasa por él, un memristor también puede actuar como un circuito de un solo elemento con propiedades únicas. La más notable es que puede guardar su estado electrónico incluso cuando la corriente deja de circular, lo que lo hace un gran candidato para reemplazar la memoria flash de hoy.
En teoría, los memristores serán más baratos y mucho más rápidos que la memoria flash y permitirán densidades de memoria mucho mayores. También podrían reemplazar los chips de RAM que todos conocemos, para que después de que se apague la computadora recuerde exactamente lo que estaba haciendo y comience a trabajar instantáneamente. Esta reducción de costo y consolidación de componentes puede conducir a computadoras transistorizadas de bajo costo que caben en el bolsillo y que funcionan mucho más rápido que las actuales PC.
Algún día, el memristor pudiera engendrar un nuevo tipo de computadora, gracias a su capacidad para recordar toda una escala de estados eléctricos en vez de los simplistas “encendido” y “apagado” que los procesadores digitales de hoy reconocen. Trabajando con una escala dinámica de estados en un modo analógico, las computadoras basadas en memristores pudieran manejar tareas mucho más complejas que la de transportar simplemente unos y ceros.
¿Cuándo aparecerá? Los investigadores dicen que no existe ninguna barrera real para implementar inmediatamente los circuitos basados en memristores. Pero depende de la parte comercial crear productos para el mercado. Los memristores para reemplazar la memoria flash (a un costo inferior y con menos consumo de energía) probablemente aparecerán primero; la meta de HP es ofrecerlos para 2012. Más allá de ese tiempo, los memristores probablemente reemplazarán a la DRAM y a las unidades de disco duro entre el 2014 y el 2016. En cuanto a las computadoras analógicas basadas en memristores, ese paso pudiera demorar más de 20 años.
CPU con 32 núcleos bajo la cubierta
Si su CPU sólo tiene un núcleo, es oficialmente un dinosaurio. De hecho, la computación de cuádruple núcleo es ahora común: hoy en día se pueden comprar hasta PC portátiles con cuatro núcleos. Pero realmente estamos presenciando el comienzo de la guerra de los núcleos: el liderazgo en el mercado de los CPU pronto será decidido por quién tiene el mayor número de núcleos, no la velocidad de reloj más alta.
¿En qué consiste? Habiendo abandonado en gran parte la carrera por los gigahertz, Intel y AMD tratan ahora de incluir más núcleos en una pastilla o microplaqueta a fin de continuar aumentando la potencia de procesamiento y ayudar a las operaciones que implican múltiples tareas. La continua miniaturización de los chips será importante para empaquetar estos núcleos y otros componentes en un espacio limitado. En 2009, Intel producirá procesadores de 32 nanómetros (por debajo de los 45nm de los chips de hoy).
¿Cuándo aparecerá? Intel ha sido muy eficiente en ajustarse a su programa de trabajo. Un CPU de seis núcleos basado en el diseño del Itanium debe salir al mercado para cuando circule esta edición, y a partir de ese momento Intel cambiará su enfoque hacia una nueva arquitectura llamada Nehalem, que saldrá al mercado con el nombre Core i7. Core i7 tendrá hasta ocho núcleos, y los sistemas de ocho núcleos estarán disponibles para 2009 ó 2010 (y hay informes también de que un proyecto de ocho núcleos de AMD llamado Montreal aparecerá para el año 2009).
La computación de 64 bits permite más RAM
En 1986, Intel estrenó su primer CPU de 32 bits. El primer sistema operativo Windows de 32 bits –Windows NT 3.1– no salió hasta 1993, dando así oficialmente cierre a la era de los 16 bits. Ahora los procesadores de 64 bits son corrientes en los escritorios y en las portátiles, aunque Microsoft todavía no se compromete a un Windows de 64 bits. Pero no podrá vivir en el mundo de los 32 bits para siempre.
¿En qué consiste? Las versiones de 64 bits de Windows han existido desde Windows XP y los CPU de 64 bits llevan más tiempo en el mercado. De hecho, casi todas las computadoras vendidas hoy tienen un procesador de 64 bits de bajo la cubierta. En algún momento, Microsoft tendrá que abandonar los 32 bits enteramente, como hizo con los 16 bits cuando lanzó Windows NT, si quiere forzar a los consumidores (y a los desarrolladores de software y hardware) a mejorar. No es probable que suceda con Windows 7: el próximo SO ya se ha anunciado con versiones de 32 y 64 bits. Pero las limitaciones en la instalación de 32 bits tarde o tremprano forzará el cambio; los usuarios del Vista de 32 bits ya conocen el problema, pues encontraron que el SO no reconoce más de 3GB de RAM porque simplemente no tiene los bits para acceder a la memoria adicional.
¿Cuándo aparecerá? Espere ver el cambio hacia los 64 bits acelerarse con Windows 7; Microsoft probablemente optará exclusivamente por los 64 bits en Windows 8. Y esto ocurrirá para 2013, por lo menos. Mientras tanto, el Mac OS X Leopard ya es de 64 bits y algunos fabricantes de hardware actualmente tratan de hacer que sus clientes hagan la transición hacia las versiones de 64 bits de Windows (Samsung dice que empujará toda su línea de PC hacia 64 bits a principios de 2009). Y ¿qué podría esperarse de la computación de 128 bits, que representaría el próximo gran salto? Vamos a tomarlo con calma, pero no se extrañe de que ese cambio ocurra alrededor del año 2025.
Windows 7: es inevitable
No importa si a usted le encanta Vista o si lo detesta, lo cierto es que ese SO pronto pasará a mejor vida. Después de la tibia recepción que recibió Vista, Microsoft se está apresurando para presentar a su sustituto, conocido ahora como Windows 7.
¿En qué consiste? En estos momentos, Windows 7 parece ser el SO que Microsoft quería estrenar como Vista, pero le faltó tiempo o recursos para completarlo. Aparte de continuos refinamientos al sistema de seguridad del SO y a su aspecto y disposición de su entorno de funcionamiento, Windows 7 puede traer finalmente el esperado sistema de archivos WinFS que funciona como una base de datos. También se esperan mejoras de compatibilidad y desempeño con respecto a Vista.
Pero el objetivo principal de Windows 7 probablemente será mejorar la integración en línea y más funciones de computación en la nube; espere, por tanto, que Microsoft vincule aun más el SO con sus crecientes servicios Windows Live. Antes de su jubilación como presidente de Microsoft, Bill Gates sugirió que el llamado escritorio omnipresente sería uno de los objetivos de Windows 7, lo que daría a los usuarios una manera de llevar todos sus datos, configuraciones de escritorio, marcadores de página y cosas por el estilo desde una computadora a otra (si todas esas computadoras utilizan Windows 7, según se presume).
¿Cuándo aparecerá? Microsoft se ha fijado la meta de enero de 2010 para Windows 7 y la fecha oficial aún no se ha atrasado. Sin embargo, se rumora que la primera versión beta oficial saldrá antes de fin de año.
La primera mejora al USB en casi una década
El conector USB ha sido uno de los mayores éxitos en la historia de la computación, con más de 2.000 millones de dispositivos USB vendidos hasta la fecha. Pero en una época cuando las unidades de disco duro tienen terabytes de capacidad, la velocidad de 480 megabits por segundo que ofrece un dispositivo USB 2.0 no es suficiente.
¿En qué consiste? USB 3.0 (a veces llamado “SuperSpeed USB”) promete aumentar el desempeño por un factor de 10, llevando así la velocidad máxima teórica del conector a 4,8 gigabits por segundo, lo que permitiría procesar casi el equivalente de un CD-R completo cada segundo. Los dispositivos USB 3.0 utilizarán un conector ligeramente distinto, pero los puertos USB 3.0 serán compatibles con los conectores USB actuales y viceversa. USB 3.0 también está diseñado para mejorar la eficiencia de energía de los dispositivos USB, a la vez que aumenta el suministro disponible (aproximadamente un amperio, en vez de los 0,1 amperios en la versión 2.0). Esto significa tiempos de carga más cortos para su iPod, y probablemente equipos USB aun más extraños, como esos lanzacohetes de juguete y enfriadores de bebidas.
¿Cuándo aparecerá? La especificación USB 3.0 está casi terminada y se espera que los productos comerciales aparezcan en 2010. Mientras tanto, un sinfín de buses rivales –DisplayPort, eSATA y HDMI– pronto serán más comunes en las PC, impulsados en su mayor parte por el auge del vídeo de alta definición. Hasta FireWire está considerando una mejora inminente de hasta 3,2 gbps. La proliferación de puertos pudiera complicar la distribución de los puertos en el panel trasero de las nuevas PC, pero por lo menos tendrá usted una gran cantidad de opciones de alto rendimiento para conectar periféricos.
El fin de la tarjeta de gráficos autónoma
Cuando AMD compró al fabricante de tarjetas de gráficos ATI, la mayoría de los observadores presumió que la compañía comenzaría a trabajar en una fusión del CPU con la GPU. Esa labor está más adelantada de lo que usted se imagina.
¿En qué consiste? Aunque las GPU siguen acaparando casi toda la atención, las tarjetas de gráficos autónomas son raras entre los propietarios de computadoras, ya que el 75 por ciento de los usuarios portátiles se conforman con los chips de gráficos integrados, según Mercury Research. Entre las razones están el costo adicional de una tarjeta de gráficos autónoma, la instalación complicada y el desgaste de la batería. Poniendo los gráficos directamente en el CPU se eliminan los tres obstáculos.
Los fabricantes de chips esperan que el desempeño de estas GPU incluidas dentro de la pastilla esté entre el que ofrecen los actuales gráficos integrados y el de las tarjetas de gráficos autónomas, pero los expertos creen que con el tiempo el desempeño aumente y haga obsoletas las tarjetas de gráficos. Una idea posible es dedicar, por ejemplo, cuatro de los núcleos de un CPU de 16 núcleos al procesamiento de los gráficos, lo cual pudiera crear una excelente experiencia en los juegos.
¿Cuándo aparecerá? El chip Nehalem de Intel, ya inminente, incluye el procesamiento de gráficos dentro del chip, pero fuera de la pastilla del CPU. El AMD Swift (también conocido como la plataforma Shrike), el primer producto en su línea Fusion, utiliza el mismo método de diseño y también se espera para 2009.
Poner la GPU directamente en la misma pastilla del CPU presenta varios desafíos –el mayor de ellos es el exceso de temperatura– pero esto no significa que los problemas no se resolverán. Los dos sucesores del Nehalem de Intel, Auburndale y Havendale, ambos programados para finales de 2009, pudieran ser los primeros chips que pongan una GPU y un CPU en una pastilla, pero la compañía no ha dicho nada todavía.
Recargue sin cables
La transmisión inalámbrica de energía ha sido un sueño desde los tiempos de Nikola Tesla, cuando éste imaginaba un mundo lleno de enormes bobinas Tesla. Pero aparte de los adelantos en recargar los cepillos de dientes eléctricos, la energía inalámbrica no ha tenido una presencia considerable en los equipos destinados a los consumidores.
¿En qué consiste? Este verano, los investigadores de Intel demostraron un método –basado en las investigaciones de MIT– de enviar electricidad a una distancia de varios pies, sin cables y sin poner en peligro a las personas (bueno, al menos eso creen). Intel llama a esa tecnología un “vínculo inalámbrico de energía resonante”. La misma trabaja enviando una señal específica de 10 MHz a través de una bobina; una bobina cercana similar resuena a tono con la frecuencia, haciendo que los electrones fluyan por ella. Aunque el diseño es primitivo, puede iluminar una bombilla de 60 vatios con un 70 por ciento de eficiencia.
¿Cuándo aparecerá? Existen todavía numerosos obstáculos, el primero de los cuales es que el proyecto de Intel utiliza la corriente alterna. Para recargar artefactos, tendríamos que ver una versión de corriente continua y el tamaño del aparato tendría que ser apreciablemente menor. También están las barreras reguladoras que tendrían que ser rebasadas en un sistema comercial y éste tendría que ser probado exhaustivamente para demostrar su seguridad.
Suponiendo que todo vaya razonablemente bien, los circuitos receptores podrían integrar-se en la parte trasera de la pantalla de una PC portátil en los próximos seis a ocho años. Luego sería una simple cuestión de que su aeropuerto local o incluso su cafetería Starbucks ponga los transmisores de energía que son parte del sistema en las paredes para que usted pueda recibir una carga rápida sin tener que abrir el bolso de la portátil.
En su sala y más allá
Apunte, no se moleste en pulsar
Nos encanta el ratón, de verdad que sí. Pero a veces, como cuando estamos sentados en el sofá viendo un DVD en una portátil, o cuando estamos al otro lado de la sala donde una computadora reproduce música en MP3, simplemente no es conveniente arrastrar un ratón y pulsar sobre lo que queremos. Sin embargo, los intentos de reemplazar el venerable ratón –ya sea con el reconocimiento de la voz o con lectores de ondas cerebrales– han fracasado invariablemente. Ahora, sin embargo, hay una alternativa prometedora.
¿En qué consiste? Comparado con las complicaciones que implica el reconocimiento de voz, el reconocimiento de gestos es una idea relativamente simple que sólo ahora está empezando a aplicarse a la electrónica del consumidor. La idea es usar una cámara (como una Webcam portátil) que apunta al usuario y reacciona a las señales manuales del mismo. Sostener la palma de la mano plana hacia afuera significaría “parar”; por ejemplo, si está reproduciendo una película o una canción. Y mover un puño en el aire pudiera servir como puntero: usted mueve el puño a la derecha para mover el puntero a la derecha, a la izquierda para moverlo a la izquierda, etc.
¿Cuándo aparecerá? Los sistemas de reconocimiento de gestos están comenzando a salir al mercado. Toshiba, una pionera en este mercado, ya tiene por lo menos un producto, la portátil Qosmio G55, que es apto para una de las primeras versiones de esa tecnología, que puede usarse para controlar la reproducción de multimedios. La compañía también está experimentando con una versión de la tecnología para sus televisores, que se fijaría en las señales de la mano por medio de una cámara pequeña montada sobre el aparato. Pero, de acuerdo con mis pruebas, la exactitud de estos sistemas todavía deja mucho que desear.
El reconocimiento de gestos es una manera inteligente de detener momentáneamente el DVD en su portátil, pero todavía no es lo suficientemente avanzado para su adopción generalizada.
La simplificación radical llega al negocio de la TV
Detrás de la mayoría de los centros audiovisuales parece haber un nido de serpientes que daría miedo a la propia Medusa. Asimismo, ese tazón lleno de dispositivos de control remoto que descansa en su mesa de centro no es nada atractivo. Pues bien, la plataforma Tru2way puede simplificar las cosas de una vez por todas.
¿En qué consiste? ¿Quién puede olvidarse de CableCard, una tecnología que supuestamente simplificaría las instalaciones A/V de una casa, pero que finalmente no llegó a ninguna parte a pesar de la exagerada publicidad que recibió? CableCard simplemente no hizo lo suficiente y lo que ofrecía no lo hizo muy bien. Es aquí donde hace su entrada Tru2way.
Tru2way es un conjunto de servicios y normas que han sido diseñados para recoger los escombros dejados por el fiasco de CableCard, mejorando lo que la norma anterior ya podía hacer (incluida la capacidad para ciertas características de comunicación bidireccional como las guías de programación y el pago por visión que los televisores de CableCard no podían manejar) y ofrece mejor compatibilidad, más estabilidad y capacidad para aplicaciones de dos sintonizadores. Así que si usted tiene un televisor compatible con Tru2way, sólo tendrá que conectar un cable y estará listo para disfrutar de una serie de servicios de cable interactivos (entre ellos búsquedas locales, canales de noticias, compras en línea y juegos), todo sin cajas de conexión adicionales, sin controles remotos adicionales, y sin la visita de los técnicos de la compañía de cable.
¿Cuándo aparecerá? Durante todo este año se han efectuado demostraciones de aparatos con Tru2way y en EE.UU. las ciudades de Chicago y Denver serán los primeros mercados que disfrutarán de la tecnología. ¿Tiene Tru2way la oportunidad de triunfar? La mayoría de las compañías de cable importantes se han comprometido a implementarlo, al igual que numerosos fabricantes de televisores, incluidos LG, Panasonic, Samsung y Sony. Panasonic comenzó a despachar dos modelos de televisores con Tru2way en octubre y a mediados de 2009 Samsung pudiera tener televisores que usen esa tecnología.
El fin de la DRM
Aterrada por la piratería, Hollywood lleva años utilizando medios técnicos para evitar que las copias de su material aparezcan en las redes “usuario a usuario”. No ha dado resultado: las herramientas para burlar la DRM en casi todos los tipos de medios están al alcance de todos y las películas frecuentemente aparecen en BitTorrent incluso antes que en las salas de cine. Desafortunadamente para los ciudadanos cumplidores de la ley, la DRM no sirve tanto para frenar la piratería como para molestar a los usuarios honrados que quieren disfrutar de su compra en más de un dispositivo.
¿En qué consiste? No es en qué consiste, sino en qué no consiste: al eliminar la DRM ya no tendremos impedimentos para trasladar audio o vídeo desde un tipo de medios a otro. Los críticos más ardientes de la DRM sueñan con el día en que usted pueda tomar un DVD, ponerlo en una computadora y terminar con un archivo de vídeo comprimido que se pueda reproducir en cualquier dispositivo de su arsenal. Aun mejor, ni siquiera necesitará ese DVD: usted podrá pagar unos dólares por una versión no protegida de la película que podrá volver a bajar cada vez que quiera.
¿Cuándo aparecerá? Tecnológicamente hablando, no hay nada que impida a las compañías eliminar la DRM mañana mismo. Pero legal y políticamente, la resistencia persiste. La música ya hizo la transición en gran parte: Amazon y iTunes venden MP3 libres de DRM que usted puede reproducir en todos los dispositivos que quiera.
El vídeo está dando pequeños pasos en la misma dirección, aunque lentamente. Un ejemplo reciente: el software RealDVD de RealNetworks (actualmente enrollado en un litigio) permite hacer “ripping” de los DVD en la computadora con un solo pulso, pero todavía estarán protegidos por un sistema de DRM. Mientras tanto, los estudios cinematográficos están experimentando con empaquetar copias digitales legales de sus películas con los DVD, en tanto que los servicios en línea están probando maneras de permitir a los usuarios grabar en un disco una copia de una película digital que bajen desde esos servicios.
La larga marcha de Google hacia el escritorio
En caso de que no lo haya notado, Google ahora tiene sus bien financiadas manos en casi todos los rincones de la computación. Desde navegadores de la Web hasta teléfonos móviles, pronto usted podrá pasarse todo el día en el universo de Google y nunca tendrá que salir de él. ¿Dará el salto Google para construir su propio sistema operativo para la PC?
¿En qué consiste? En todo, o por lo menos así parece. Google Checkout representa una alternativa a Paypal. Street View está en camino de tomar una foto de todas las casas que hay en todas las calles de EE.UU. Y la fiesta acaba de empezar: el navegador Chrome de Google en su estado beta ganó un 1 por ciento de la cuota del mercado en sus primeras 24 horas de existencia. Android, el sistema operativo de Google para teléfonos móviles, estará llegando a los teléfonos cuando usted lea esto, lo que lo convertirá en el primer retador del iPhone que tiene posibilidades entre los clientes más avanzados.
¿Cuándo aparecerá? Aunque Google parece tener sus manos en casi todo, hay una parte considerable del mercado del software que, en opinión de muchos, Google lógicamente tratará de atacar: el sistema operativo.
El navegador Chrome es el primer dedo del pie que Google ha metido en estas aguas. Aunque un navegador es cómo los usuarios interactúan con casi todos los productos de Google, lo que relega el sistema operativo subyacente a una posición de menor importancia, Chrome de todas maneras necesita un SO para funcionar.
Para restar importancia a Microsoft, sin embargo, Google tendría que caminar por un campo de minas de controladores de dispositivos y aun así el resultado no sería una buena solución para quienes necesiten una aplicación especializada, especialmente la mayoría de los usuarios empresariales. Pero un simple SO de Google, combinado con hardware de bajo costo, podría ser algo que cambie el panorama de la PC de una forma que hasta ahora no han podido lograr empresas más pequeñas que han jugado con la idea de los sistemas operativos de código abierto.
Use cualquier teléfono en cualquier red inalámbrica
La razón por la que los teléfonos móviles son tan baratos es que las compañías telefónicas los subvencionan si usted firma un contrato a largo plazo. El acceso abierto podría cambiar drásticamente la economía del negocio de los teléfonos móviles (y de los datos móviles) cuando se desplomen las paredes que impiden que ciertos dispositivos funcionen en ciertas redes.
¿En qué consiste? Dos años es una eternidad en el mundo celular. El iPhone original se anunció, salió a la venta y se discontinuó en menos de ese tiempo y, sin embargo, los proveedores del servicio telefónico rutinariamente le piden que usted firme contratos de dos años si quiere acceso a sus teléfonos con descuento (pudiera ser peor; en otros países, tres años es lo normal). Verizon disparó la primera andanada el año pasado cuando prometió que pronto permitiría “cualquier dispositivo, cualquier aplicación” en su red, que es célebre por ser cerrada. Mientras tanto, AT&T y T-Mobile se apresuran a señalar que sus redes GSM siempre han estado “abiertas”.
¿Cuándo aparecerá? El acceso abierto ya existe de manera parcial: casi cualquier teléfono GSM desbloqueado puede usar-se hoy en AT&T o T-Mobile y en julio Verizon Wireless comenzó a certificar dispositivos de terceros para su red (aunque hasta la fecha la compañía sólo han aprobado dos productos). Pero el futuro no será color de rosa, ya que Verizon está arrastrando los pies un poco para cumplir con el requisito legal de que mantenga abierta a otros dispositivos su recién adquirida red de 700 MHz, un mandato que la FCC acordó después de un cabildeo considerable por parte de Google. Algunos han argumentado que estas provisiones de la FCC son imposibles de hacer cumplir. Sin embargo, no sabremos realmente cuán “abierta” será la nueva red hasta que comience a funcionar, posiblemente para el año 2010.
Los teléfonos móviles son el nuevo papel
Usted entra en el sitio Web de su aerolínea. Se inscribe. Imprime su pase de abordaje. Y espera que no se le pierda. Entrega el pase de abordaje arrugado a un agente de seguridad y reza para que no le aparten para registrarle. Cuando está listo para el vuelo de regreso, hace cola en el aeropuerto porque el hotel donde se alojó no tenía impresora. ¿Podemos proporcionarle una manera mejor?
¿En qué consiste? La idea de la oficina sin papeles ha existido desde que Bill Gates se ponía pantalones cortos, pero por muy avanzado que sea su SO o su uso de archivos digitales en lugar de copias impresas, no le sirven de mucho una vez que se aparte de su escritorio. Las personas necesitan copias impresas de mapas, recibos e instrucciones cuando no tienen a mano una PC. Los PDA no pudieron satisfacer esa necesidad, y por eso están viniendo al rescate sus sustitutos: los teléfonos móviles.
El mercado se está inundando de aplicaciones que eliminan la necesidad de una copia impresa en muchas situaciones. Cellfire (cellfire.com) ofrece cupones móviles que usted puede mostrar en su teléfono al dependiente y Tickets.com ahora tiene boletos digitales para conciertos disponibles por medio del teléfono móvil mediante su servicio Tickets@Phone. Sin embargo, la frontera final sigue siendo el pase de abordaje de las aerolíneas, que ha resistido este próximo paso desde el advenimiento de la facturación basada en la Web.
¿Cuándo aparecerá? Ya existen algunas aplicaciones para teléfonos móviles que permiten sustituir el papel (sólo fíjese en las del iPhone) y hasta los pases de abordaje digitales están comenzando a aparecer. Continental ha experimentado con un sistema de facturación por teléfono móvil que le permite mostrar al agente de seguridad un código de barras bidimensional cifrado en su teléfono en lugar de un pase de abordaje en papel. El agente escanea el código de barras usando un escáner ordinario y usted puede seguir su camino. Presentado en el Aeropuerto Intercontinental de Houston, el proyecto piloto se hizo permanente a principios de este año y Continental lo ha extendido a otros tres aeropuertos en el año 2008.
¿Dónde estás? Pregúntele a su teléfono, no a su amigo
El GPS está despegando a medida que los fabricantes de teléfonos y proveedores del servicio telefónico se han dado cuenta de que los consumidores generalmente no siempre tienen idea de dónde están. Un servicio basado en la ubicación (LBS, por sus siglas en inglés) toma los datos crudos del GPS que indican el lugar donde usted se encuentra y los enriquece con servicios adicionales, desde sugerencias de restaurantes cercanos hasta localización del paradero de sus amigos.
¿En qué consiste? LBS se diseñó originalmente como una simple triangulación de señales para ubicar el paradero de los usuarios, pero a medida que los chips se hacen más comunes y más avanzados, GPS no sólo resulta más conveniente y preciso sino que también forma la base de nuevos servicios. Ya hay muchas compañías nuevas que se han formado en torno a servicios basados en la ubicación. ¿Quiere una cita? ¿No le importa quién es más compatible o quién está más cercana? MeetMoi.com las puede encontrar por usted. ¿Necesita reunir una docena de personas en un lugar? Whrrl.com y el Buddy Beacon de uLocate.com le dicen en tiempo real dónde están todos sus amigos.
Por supuesto, no todo el mundo está entusiasmado con LBS: es común que las personas se preocupen por ser vigiladas o acechadas, así como por la posibilidad de recibir un diluvio de mensajes de correo indeseado en el teléfono.
¿Cuándo aparecerá? LBS ya está aquí y está creciendo rápido. Lo único que lo tiene frenado es la lenta adopción de los teléfonos equipados con GPS. Pero viendo que los iPhones se venden como rosquillas, la barrera no es muy fácil de rebasar. Espere ver una adopción masiva de estas tecnologías en 2009 y 2010.
VIRUS
Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad[cita requerida] como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.
Historia
El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado Creeper, creado en 1972. Este programa emitía periódicamente en la pantalla el mensaje: «I'm a creeper... catch me if you can!» (¡Soy una enredadera... agárrame si puedes!). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (cortadora).Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde antes. Sus inicios fueron en los laboratorios de Bell Computers. Cuatro programadores (H. Douglas Mellory, Robert Morris, Victor Vysottsky y Ken Thompson) desarrollaron un juego llamado Core War, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo posible.
Después de 1984, los virus han tenido una gran expansión, desde los que atacan los sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico.
Virus informáticos y sistemas operativos
Los virus informáticos afectan en mayor o menor medida a casi todos los sistemas más conocidos y usados en la actualidad.Cabe aclarar que un virus informático mayoritariamente atacará sólo el sistema operativo para el que fue desarrollado, aunque ha habido algunos casos de virus multiplataforma.
MS-Windows
Las mayores incidencias se dan en el sistema operativo Windows debido, entre otras causas, a:- Su gran popularidad, como sistema operativo, entre los ordenadores personales, PC. Se estima que, en 2007, un 90% de ellos usaba Windows.[cita requerida] Esta popularidad basada en la facilidad de uso sin conocimiento previo alguno, motiva a los creadores de software malicioso a desarrollar nuevos virus; y así, al atacar sus puntos débiles, aumentar el impacto que generan.
- Falta de seguridad en esta plataforma (situación a la que Microsoft está dando en los últimos años mayor prioridad e importancia que en el pasado). Al ser un sistema muy permisivo con la instalación de programas ajenos a éste, sin requerir ninguna autentificación por parte del usuario o pedirle algún permiso especial para ello en los sistemas más antiguos (en los Windows basados en NT se ha mejorado, en parte, este problema). A partir de la inclusión del Control de Cuentas de Usuario en Windows Vista o Windows 7, y siempre y cuando no se desactive, se ha solucionado este problema.
- Software como Internet Explorer y Outlook Express, desarrollados por Microsoft e incluidos de forma predeterminada en las últimas versiones de Windows, son conocidos por ser vulnerables a los virus ya que éstos aprovechan la ventaja de que dichos programas están fuertemente integrados en el sistema operativo dando acceso completo, y prácticamente sin restricciones, a los archivos del sistema. Un ejemplo famoso de este tipo es el virus ILOVEYOU, creado en el año 2000 y propagado a través de Outlook.
- La escasa formación de un número importante de usuarios de este sistema, lo que provoca que no se tomen medidas preventivas por parte de estos, ya que este sistema está dirigido de manera mayoritaria a los usuarios no expertos en informática. Esta situación es aprovechada constantemente por los programadores de virus.
Unix y derivados
En otros sistemas operativos como las distribuciones GNU/Linux, BSD, OpenSolaris, Solaris, Mac OS X y otros basados en Unix las incidencias y ataques son prácticamente inexistentes. Esto se debe principalmente a:- Tradicionalmente los programadores y usuarios de sistemas basados en Unix han considerado la seguridad como una prioridad por lo que hay mayores medidas frente a virus, tales como la necesidad de autenticación por parte del usuario como administrador o root para poder instalar cualquier programa adicional al sistema.
- Los directorios o carpetas que contienen los archivos vitales del sistema operativo cuentan con permisos especiales de acceso, por lo que no cualquier usuario o programa puede acceder fácilmente a ellos para modificarlos o borrarlos. Existe una jerarquía de permisos y accesos para los usuarios.
- Relacionado al punto anterior, a diferencia de los usuarios de Windows, la mayoría de los usuarios de sistemas basados en Unix no pueden normalmente iniciar sesiones como usuarios "administradores' o por el superusuario root, excepto para instalar o configurar software, dando como resultado que, incluso si un usuario no administrador ejecuta un virus o algún software malicioso, éste no dañaría completamente el sistema operativo ya que Unix limita el entorno de ejecución a un espacio o directorio reservado llamado comúnmente home. Aunque a partir de Windows Vista, se pueden configurar las cuentas de usuario de forma similar.
- Estos sistemas, a diferencia de Windows, son usados para tareas más complejas como servidores que por lo general están fuertemente protegidos, razón que los hace menos atractivos para un desarrollo de virus o software malicioso.
- En el caso particular de las distribuciones basadas en GNU/Linux y gracias al modelo colaborativo, las licencias libres y debido a que son más populares que otros sistemas Unix, la comunidad aporta constantemente y en un lapso de tiempo muy corto actualizaciones que resuelven bugs y/o agujeros de seguridad que pudieran ser aprovechados por algún malware.
Características
Dado que una característica de los virus es el consumo de recursos, los virus ocasionan problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños a nivel de datos.Una de las características es la posibilidad que tienen de diseminarse por medio de replicas y copias. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen la seguridad adecuada.
Otros daños que los virus producen a los sistemas informáticos son la pérdida de información, horas de parada productiva, tiempo de reinstalación, etc.
Hay que tener en cuenta que cada virus plantea una situación diferente.
Métodos de propagación
Existen dos grandes clases de contagio. En la primera, el usuario, en un momento dado, ejecuta o acepta de forma inadvertida la instalación del virus. En la segunda, el programa malicioso actúa replicándose a través de las redes. En este caso se habla de gusanos.En cualquiera de los dos casos, el sistema operativo infectado comienza a sufrir una serie de comportamientos anómalos o imprevistos. Dichos comportamientos pueden dar una pista del problema y permitir la recuperación del mismo.
Dentro de las contaminaciones más frecuentes por interacción del usuario están las siguientes:
- Mensajes que ejecutan automáticamente programas (como el programa de correo que abre directamente un archivo adjunto).
- Ingeniería social, mensajes como ejecute este programa y gane un premio, o, más comunmente: Haz 2 clics y gana 2 tonos para móvil gratis..
- Entrada de información en discos de otros usuarios infectados.
- Instalación de software modificado o de dudosa procedencia.
Métodos de protección y tipos
Los métodos para disminuir o reducir los riesgos asociados a los virus pueden ser los denominados activos o pasivos.Activos
- Antivirus: son programas que tratan de descubrir las trazas que ha dejado un software malicioso, para detectarlo y eliminarlo, y en algunos casos contener o parar la contaminación. Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de infección y notificando al usuario de posibles incidencias de seguridad. Por ejemplo, al verse que se crea un archivo llamado Win32.EXE.vbs en la carpeta C:\Windows\%System32%\ en segundo plano, ve que es comportamiento sospechoso, salta y avisa al usuario.
- Filtros de ficheros: consiste en generar filtros de ficheros dañinos si el ordenador está conectado a una red. Estos filtros pueden usarse, por ejemplo, en el sistema de correos o usando técnicas de firewall. En general, este sistema proporciona una seguridad donde no se requiere la intervención del usuario, puede ser muy eficaz, y permitir emplear únicamente recursos de forma más selectiva.
Pasivos
- Evitar introducir a tu equipo medios de almacenamiento extraíbles que consideres que pudieran estar infectados con algún virus.
- No instalar software "pirata", pues puede tener dudosa procedencia.
- No abrir mensajes provenientes de una dirección electrónica desconocida.
- No aceptar e-mails de desconocidos.
- Informarse y utilizar sistemas operativos más seguros.
- No abrir documentos sin asegurarnos del tipo de archivo. Puede ser un ejecutable o incorporar macros en su interior.
Tipos de virus e imitaciones
Existen diversos tipos de virus, varían según su función o la manera en que éste se ejecuta en nuestra computadora alterando la actividad de la misma, entre los más comunes están:- Troyano: Consiste en robar información o alterar el sistema del hardware o en un caso extremo permite que un usuario externo pueda controlar el equipo.
- Gusano: Tiene la propiedad de duplicarse a sí mismo. Los gusanos utilizan las partes automáticas de un sistema operativo que generalmente son invisibles al usuario.
- Bombas lógicas o de tiempo: Son programas que se activan al producirse un acontecimiento determinado. La condición suele ser una fecha (Bombas de Tiempo), una combinación de teclas, o ciertas condiciones técnicas (Bombas Lógicas). Si no se produce la condición permanece oculto al usuario.
- Hoax: Los hoax no son virus ni tienen capacidad de reproducirse por si solos. Son mensajes de contenido falso que incitan al usuario a hacer copias y enviarla a sus contactos. Suelen apelar a los sentimientos morales ("Ayuda a un niño enfermo de cáncer") o al espíritu de solidaridad ("Aviso de un nuevo virus peligrosísimo") y, en cualquier caso, tratan de aprovecharse de la falta de experiencia de los internautas novatos.
- Joke: Al igual de los hoax, no son virus, pero son molestos, un ejemplo: una página pornográfica que se mueve de un lado a otro, y si se le llega a dar a errar es posible que salga una ventana que diga: OMFG!! No se puede cerrar!
Acciones de los virus
Algunas de las acciones de algunos virus son:- Unirse a un programa instalado en el ordenador permitiendo su propagación.
- Mostrar en la pantalla mensajes o imágenes humorísticas, generalmente molestas.
- Ralentizar o bloquear el ordenador.
- Destruir la información almacenada en el disco, en algunos casos vital para el sistema, que impedirá el funcionamiento del equipo.
- Reducir el espacio en el disco.
- Molestar al usuario cerrando ventanas, moviendo el ratón...