sábado, 15 de febrero de 2020

ORGANIZACIÓN DE MEMORIA CACHE

¿QUÉ HACE FUNCIONAR UNA MEMORIA CACHÉ?

Las cachés son tan exitosas en el mejoramiento del rendimiento de los procesadores modernos debido
a dos propiedades de localidad de patrones de acceso a memoria en programas típicos. La localidad
espacial de los accesos de memoria resulta de accesos consecutivos que se refi eren a localidades de
memoria cercanas. Por ejemplo, un ciclo de programa de nueve instrucciones que se ejecuta mil veces
provoca que los accesos de instrucción se concentren en una región de nueve palabras del espacio de
dirección para un periodo largo (fi gura 18.2). De igual modo, conforme un programa se ensambla, la
tabla de símbolos, que ocupa un sitio pequeño en el espacio de dirección, se consulta con frecuencia.
La localidad temporal indica que cuando se accesa a una instrucción o elemento de datos, los accesos
futuros al mismo objeto tienden a ocurrir principalmente en el futuro cercano. En otras palabras, los
programas tienden a enfocarse en una región de memoria para obtener instrucciones o datos y luego
moverse hacia las otras regiones según se completan las fases de cálculo.
Las dos propiedades de localidad de patrones de acceso a memoria propician que las instrucciones
y elementos de datos más útiles en algún punto específico en la ejecución de un programa

 

resida en la caché. Esto último conduce a altas tasas de im-
pacto de caché, que usualmente están en el rango de 90 a 98%, o, de manera equivalente, a bajas tasas

de fallos, en el rango de 2 a 10%.

CACHÉ MAPEO DIRECTO 

CACHÉ DE CONJUNTO ASOCIATIVO

CACHÉ Y PRINCIPAL

CONCEPTOS DE MEMORIA PRINCIPAL

MAPA CONCEPTUAL DE LOS CONCEPTOS:
  • Estructura de memoria y SRAM
  • DRAM y ciclos de regeneración
  • Impactar la pared de memoria
  • Memorias encauzada e interpolada
  • Memoria no volátil
  • Necesidad de una jerarquía de memoria

sábado, 8 de febrero de 2020

EVALUACIÓN

DA CLICK EN EL SIGUINETE ENLACE PARA REALIZAR EL EJERCICIO

COMUNICACION INTERNA

Tipos de Buses
Los Buses son espacios físicos que permite el transporte de información y energía  entre dos puntos de la computadora.
Los buses generales son los siguientes:


Bus de Datos:


Son las lineas de comunicación por donde circulan los datos externos e internos del microprocesador.








Bus de Dirección:




Linea de comunicación por donde viaja la información especifica sobre la localización de dirección de memoria del dato o dispositivo al que se hace referencia.







Bus de Control:



Linea de comunicación por donde  se controla el intercambio de información con modulo de la unidad centrar y los periféricos. 






Bus de Expansión:


Conjunto de linea de comunicación encargados de llevar el bus de datos, el bus de dirección y el de control a la tarjeta de interfaz (entrada/ salida) que se agrega a la tarjeta principal.





Bus de Sistema:



Todos los componentes de la CPU se vinculan a través del bus de sistema, mediante distintos tipos de datos  el microprocesador   y la memoria principal, que también involucra a la memoria cache de nivel 2.

sábado, 1 de febrero de 2020

DISPOSITIVOS PERIFERICOS


Definición de Dispositivos periféricos


El concepto de dispositivo periférico se aplica básicamente en la esfera de la computación. Son instrumentos tecnológicos que interpretan la información y permiten la comunicación entre las personas y las computadoras.

Existen los dispositivos periféricos de entrada, de salida de almacenamiento y de comunicación. En cuanto a los primeros, los más conocidos son los siguientes: el teclado, el ratón o mouse, el joystick o palanca de mando, el lápiz o pluma óptica, el scanner o el micrófono. Entre los dispositivos periféricos de salida se encuentran el monitor, la impresora, los altavoces, los plotters o el fax. Los de almacenamiento están relacionados con los procesos de entrada y salida de información (el disco duro, el lector de CD, las cintas magnéticas o la memoria portátil). También existen los dispositivos de comunicación, que son los que permiten la interacción con otras máquinas (la tarjeta de red, el concentrador o el enrutador).
Los dispositivos periféricos son una parte de los componentes materiales de un computador (en términos informáticos se utiliza la palabra hardware), los cuales funcionan debido a un programa de tratamiento de la información (conocido como software).
El procesamiento de la información se realiza a través de una unidad central (otro elemento físico del ordenador), la cual se proyecta al exterior mediante los dispositivos periféricos.
Si utilizamos un símil explicativo, diríamos que la unidad central sería el cerebro de los humanos, el programa estaría formado por nuestras conexiones neuronales y los dispositivos periféricos serían nuestros miembros que reciben órdenes y permiten la ejecución de las acciones (nuestro aparato auditivo es un dispositivo periférico de entrada de información). Esta analogía entre el cerebro y la computadora se empezó a utilizar en los años 40, siendo Alan Turing el primero en hablar de un cerebro electrónico.
Si bien el concepto de dispositivo periférico se ha desarrollado en las últimas décadas, existen precedentes en la antigüedad (el ábaco como herramienta de cálculo se considera uno de los primeros). En el Renacimiento, Leonardo da Vinci ideó una máquina que permitía realizar sumas mecánicamente. A partir del siglo XVlll se fueron sucediendo distintas máquinas de calcular, siendo estas máquinas los primeros dispositivos periféricos.
En la actualidad la computación se encuentra en su quinta generación y el reto fundamental consiste en dotar a la inteligencia artificial de los mecanismos propios de la inteligencia humana.

PUERTOS DE ENTRADA Y SALIDA

Los puertos de Entrada y Salida

Los Puertos de Entrada y Salida de una PC son la interfaz para que el usuario pueda comunicarse con el computador, así como otros dispositivos electrónicos. Hay puertos muy conocidos por todos nosotros y que son los más habituales de encontrar en la parte posterior y frontal de un gabinete de PC. Pero en poco tiempo algunas serán desplazados por otros hasta ahora no tan populares y que veremos a través de la presentación en diapositivas "Los puertos de E/S".

En la figura de podemos ver de forma numerada algunos de los puertos más populares:

1 - Puerto para PS/2 para ratón (verde)
2 - Puerto de salida SPDIF coaxial
3 - Puerto de entrada SPDIF coaxial
4 - Puerto VGA o Adaptador de gráficos de vídeo
5 - Puerto IEEE 1394a (puerto FireWire)
6 - Puerto de Red RJ-45 (LAN)
7 - Audio: Altavoz central/subwoofer (amarillo/naranja)
8 - Audio: Salida del altavoz posterior (negro)
9 - Audio: Entrada de línea (celeste)
10 - Audio: Salida de línea (verde claro)
11 - Audio: Micrófono (rosa)
12 - Salida de altavoz lateral (gris)
13 - Puertos USB 2.0: 4
14 - Puerto PS/2 para Teclado (violeta)

Con el tiempo algunos de estos puertos se convertiran en obsoletos ante tecnologías como la Pantalla Tactil (TouchScreen), Conexiones inalámbricas como el WIFI y el BlueTooth, y el reconocimiento kinetico, un ejemplo de ello es Gmail motion. Tecnología ligada al movimiento del cuerpo y de las manos para poder escribir e interactuar con la PC a través de una cámara que sensa los movimientos del cuerpo del operador.

Te invitamos a que descargues la presentación y des un vistazo a los puertos de Entrada y Salida de una PC, así como el material adicional "Muestrario de puertos de PC" en la sección HOJAS DE DATOS.

TIPOS DE MEMORIAS

➤➤➤MEMORIAS➤➤➤

Resultado de imagen para memoria ram png

El ordenador tiene dos tipos de memoria:

  • Memoria ROM (Read Only Memory)
Esta memoria es de solo lectura, es decir, no se puede escribir en ella. Su información fue grabada por el fabricante al construir el equipo y no desaparece al apagar el ordenador. Esta memoria es imprescindible para el funcionamiento del ordenador y contiene instrucciones y datos técnicos de los distintos componentes del ordenador.
  • Memoria RAM (Random Access Memory)
Esta memoria permite almacenar y leer la información que la CPU necesita mientras está ejecutando un programa, Además, almacena los resultados de las operaciones efectuadas por ella. Este almacenamiento es temporal, ya que la información se borra al apagar el ordenador. la memoria RAM se instala en los zócalos que para ello posee la placa base
En informática, memoria basada en semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de hardware. Es un acrónimo del inglés Random Access Memory. Se puede acceder a las posiciones de almacenamiento en cualquier orden.
Resultado de imagen para memoria rom png

Cache del Disco:

En informática, una parte de la memoria de acceso aleatorio de un ordenador o computadora que se reserva para contener, de manera temporal, información leída o escrita recientemente en el disco. La memoria caché de disco realiza distintas funciones: en unos casos, almacena direcciones concretas de sectores; en otros, almacena una copia del directorio y en otros, almacena porciones o extensiones del programa o programas en ejecución.
Resultado de imagen para memoria cache png

Memoria de sólo lectura o EPROM

En informática, tipo de memoria, también denominada reprogramable de sólo lectura (RPROM, acrónimo inglés de Reprogrammable Read Only Memory). Las EPROM (acrónimo inglés de Erasable Programmable Read Only Memory) son chips de memoria que se programan después de su fabricación. Son un buen método para que los fabricantes de hardware inserten códigos variables o que cambian constantemente en un prototipo, en aquellos casos en los que producir gran cantidad de chips PROM resultaría prohibitivo. Los chips EPROM se diferencian de los PROM por el hecho de que pueden borrarse por lo general, retirando una cubierta protectora de la parte superior del chip y exponiendo el material semiconductor a radiación ultravioleta, después de lo cual pueden reprogramarse.

Memoria programable de solo lectura o PROM

En informática, tipo de memoria de sólo lectura (ROM) que permite ser grabada con datos mediante un hardware llamado programador de PROM. Una vez que la PROM ha sido programada, los datos permanecen fijos y no pueden reprogramarse. Dado que las ROM son rentables sólo cuando se producen en grandes cantidades, se utilizan memorias programables de sólo lectura durante las fases de creación del prototipo de los diseños. Nuevas PROM pueden grabarse y desecharse durante el proceso de perfeccionamiento del diseño.

Memoria de solo lectura o ROM

En informática, memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer pero no modificar. Para crear un chip ROM, el diseñador facilita a un fabricante de semiconductores la información o las instrucciones que se van a almacenar. El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM.

Memoria expandida

En informática, en los PC de IBM y en los compatibles, organización lógica de memoria, de hasta 8 megabytes (MB) que puede utilizarse en las máquinas que ejecutan MS-DOS en modo real (emulación de 8086). El uso de la memoria expandida está definido en la EMS (Especificación de Memoria Expandida). Como representa la memoria a la que normalmente no acceden los programas que ejecutan MS-DOS, la memoria expandida requiere una interfaz denominada EMM (Gestor de Memoria Expandida), que asigna páginas (bloques) de bytes de la memoria expandida según se necesiten. Sólo el software compatible con EMS puede utilizar la memoria expandida.

Memoria extendida

En informática, la parte de memoria del sistema que supera 1 megabyte (MB) en las computadoras basadas en procesadores Intel 80286/386/486. Sólo se puede tener acceso a esta memoria cuando el procesador trabaja en modo protegido o en modo virtual real en los equipos 386/486. Normalmente MS-DOS no puede utilizar la memoria extendida. Puede permitirse el acceso a esta memoria mediante la utilización de un determinado software que hace que el microprocesador quede en modo protegido, o mediante el uso de las posibilidades que los procesadores 386 y 486 tienen para asignar determinadas porciones de la memoria expandida como memoria convencional. Para ello se utilizan las convenciones EMS.

Buffer de memoria intermedia

En informática, depósito de datos intermedio, es decir, una parte reservada de la memoria en la que los datos son mantenidos temporalmente hasta tener una oportunidad de completar su transferencia hacia o desde un dispositivo de almacenamiento u otra ubicación en la memoria. Algunos dispositivos, como las impresoras o como los adaptadores que las soportan, suelen tener sus propios buffers.

Memoria cache L2

Resultado de imagen para memoria cache L2 pngAlmacena los datos transferidos más recientemente entre la memoria RAM y el microprocesador. Así, si el microprocesador necesita algo de esta información accede directamente a la caché sin acudir a la RAM. De esta forma acelera la ejecución de las instrucciones del microprocesador ya que la caché trabaja más rápido que la RAM.






Características de las memorias
  • La división entre primario, secundario, terciario, fuera de línea se basa en la jerarquía de memoria o distancia desde la unidad central de proceso. Hay otras formas de caracterizar a los distintos tipos de memoria.
  • Volatilidad de la información
  • La memoria volátil requiere energía constante para mantener la información almacenada. La memoria volátil se suele usar sólo en memorias primarias. La memoria RAM es una memoria volátil, ya que pierde información en la falta de energía eléctrica.
  • La memoria no volátil retendrá la información almacenada incluso si no recibe corriente eléctrica constantemente, como es el caso de la memoria ROM. Se usa para almacenamientos a largo plazo y, por tanto, se usa en memorias secundarias, terciarias y fuera de línea.
  • La memoria dinámica es una memoria volátil que además requiere que periódicamente se refresque la información almacenada, o leída y reescrita sin modificaciones.

*** UNIDAD DE PROCESAMIENTO CENTRAL ***

CPU (unidad central de procesamiento)



Unidad central de procesamiento. Conocido por el Acrónimo en inglés de central processing unit (CPU), o simplemente el procesador o microprocesador, es el componente en un ordenador, que interpreta las instrucciones y procesa los datos contenidos en los programas de la computadora.

Las CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de Entrada/salida. Se conoce como Microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.
80486dx2-large.jpg



La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros ordenadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de las CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.

Las primeras CPU fueron diseñadas a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los Transistores discretos, computadoras centrales, y Microcomputadoras, y fue acelerada rápidamente con la popularización del Circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de Milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde Automóviles, Televisores, Neveras, Calculadoras, aviones, hasta teléfonos móviles o celulares, Juguetes, entre otros.
Edvac (1948)

Casi todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del Transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de Lógica secuencial de Corriente directa requería hardware adicional para hacer frente al problema del Rebote de contacto.

Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo. Generalmente, cuando un tubo ha fallado, el CPU tendría que ser diagnosticado para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidas pero menos confiables que las computadoras electromecánicas, (basadas en relés).

Las computadoras de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente . Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos, (ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.

Operación del CPU



La operación fundamental de la mayoría de los CPU, es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". El programa es representado por una serie de números que se mantentienen en una cierta clase de memoria de computador. Hay cuatro pasos que casi todos los CPU de Arquitectura de von Neumann usan en su operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar, y escribir).

Mips32 addi.svg

El primer paso, leer (fetch), implica el recuperar una Instrucción, (que es representada por un número o una secuencia de números), de la memoria de programa. La localización en la memoria del programa es determinada por un Contador de programa (PC), que almacena un número que identifica la posición actual en el programa. En otras palabras, el contador de programa indica al CPU, el lugar de la instrucción en el programa actual. Después de que se lee una instrucción, el Contador de Programa es incrementado por la longitud de la palabra de instrucción en términos de unidades de memoria. Frecuentemente la instrucción a ser leída debe ser recuperada de memoria relativamente lenta, haciendo detener al CPU mientras espera que la instrucción sea retornada. Este problema es tratado en procesadores modernos en gran parte por los cachés y las arquitecturas Pipeline (ver abajo).

La instrucción que el CPU lee desde la memoria es usada para determinar qué deberá hacer el CPU. En el paso de decodificación, la instrucción es dividida en partes que tienen significado para otras unidades del CPU. La manera en que el valor de la instrucción numérica es interpretado está definida por la arquitectura del Conjunto de instrucciones (el ISA) del CPU. A menudo, un grupo de números en la instrucción, llamados Opcode, indica qué operación realizar. Las partes restantes del número usualmente proporcionan información requerida para esa instrucción, como por ejemplo, operandos para una operación de Adición.


Tales operandos se pueden dar como un valor constante (llamado valor inmediato), o como un lugar para localizar un valor, que según lo determinado por algún Modo de dirección, puede ser un registro o una Dirección de memoria. En diseños más viejos las unidades del CPU responsables de decodificar la instrucción eran dispositivos de hardware fijos. Sin embargo, en CPUs e ISAs más abstractos y complicados, es frecuentemente usado un Microprograma para ayudar a traducir instrucciones en varias señales de configuración para el CPU. Este microprograma es a veces reescribible de tal manera que puede ser modificado para cambiar la manera en que el CPU decodifica instrucciones incluso después de que haya sido fabricado.

Diagrama del CPU

Después de los pasos de lectura y decodificación, es llevado a cabo el paso de la ejecución de la instrucción. Durante este paso, varias unidades del CPU son conectadas de tal manera que ellas pueden realizar la operación deseada. Si, por ejemplo, una operación de adición fue solicitada, una Unidad aritmético lógica (ALU) será conectada a un conjunto de entradas y un conjunto de salidas. Las entradas proporcionan los números a ser sumados, y las salidas contendrán la suma final.

La ALU contiene la circuitería para realizar operaciones simples de aritmética y lógica en las entradas, como adición y operaciones de bits (bitwise). Si la operación de adición produce un resultado demasiado grande para poder ser manejado por el CPU, también puede ser ajustada una bandera (flag) de Desbordamiento aritmético localizada en un registro de banderas (ver abajo la sección sobre rango de números enteros).

El paso final, la escritura (writeback), simplemente "escribe" los resultados del paso de ejecución a una cierta forma de memoria. Muy a menudo, los resultados son escritos a algún registro interno del CPU para acceso rápido por subsecuentes instrucciones. En otros casos los resultados pueden ser escritos a una memoria principal más lenta pero más barata y más grande. Algunos tipos de instrucciones manipulan el contador de programa en lugar de directamente producir datos de resultado.


Éstas son llamadas generalmente "saltos" (jumps) y facilitan comportamientos como Bucles (loops), la ejecución condicional de programas (con el uso de saltos condicionales), y funciones en programas. Muchas instrucciones también cambiarán el estado de dígitos en un registro de "banderas". Estas banderas pueden ser usadas para influenciar cómo se comporta un programa, puesto que a menudo indican el resultado de varias operaciones. Por ejemplo, un tipo de instrucción de "comparación" considera dos valores y fija un número, en el registro de banderas, de acuerdo a cuál es el mayor. Entonces, esta bandera puede ser usada por una posterior instrucción de salto para determinar el flujo de programa.

Después de la ejecución de la instrucción y la escritura de los datos resultantes, el proceso entero se repite con el siguiente ciclo de instrucción, normalmente leyendo la siguiente instrucción en secuencia debido al valor incrementado en el contador de programa. Si la instrucción completada era un salto, el contador de programa será modificado para contener la dirección de la instrucción a la cual se saltó, y la ejecución del programa continúa normalmente. En CPUs más complejos que el descrito aquí, múltiples instrucciones pueden ser leídas, decodificadas, y ejecutadas simultáneamente. Esta sección describe lo que es referido generalmente como el "entubado RISC clásico" (Classic RISC pipeline), que de hecho es bastante común entre los CPU simples usados en muchos dispositivos electrónicos, a menudo llamados Microcontroladores.

Aprende a armar una pc desde 0 aqui ->https://www.youtube.com/watch?v=nfXJf9RbkrQ









ESTRUCTURA BÁSICA DE COMPUTADORAS I

ESTRUCTURA BÁSICA DE COMPUTADORAS I

Unidades funcionales:

El elemento hardware de un sistema básico de proceso de datos se puede estructurar en tres partes claramente diferenciadas en cuanto a sus funciones:

  1. Unidad central de proceso (CPU) 
  2. Memoria central (MC) 
  3. Unidades de entrada/salida (periféricos)
UNIDAD CENTRAL DE PROCESO (CPU)
La unidad central de proceso (CPU) es un elemento esencial de cualquier ordenador ya que tiene como misión ejecutar las instrucciones de un programa.

La CPU también se conoce con el nombre de procesador central.

Físicamente está formado por circuitos de naturaleza electrónica que en un ordenador se encuentran integrados en una pastilla o chip denominada microprocesador.



MEMORIA CENTRAL
La memoria central es la unidad donde están almacenadas las instrucciones y los datos necesarios para poder realizar un determinado proceso.
Está construida por multitud de celdas o posiciones de memoria, numeradas de forma consecutiva.
A la numeración de las celdas se denomina dirección de memoria y mediante esta dirección se puede acceder de forma directa .
Palabra: cantidad de información que puede introducirse o extraerse de la memoria central de una sola vez. (16, 32 o 64 Bits


Registro de Dirección de Memoria (RDM) Dirección de la celda que se va a utilizar en la operación, bien para grabar o leer datos.
Registro de Intercambio de Memoria (RIM) Lectura: recibe el dato de la memoria señalado por el RDM. Escritura: la información que hay que grabar procedente de cualquier unidad funcional

Selector de memoria Dispositivo que se activa cada vez que se produce una orden de lectura o escritura, conectando la celda de memoria, cuya dirección figura en el RDM, con el RIM y posibilitando la transferencia de los datos en un sentido o en otro.

UNIDADES DE ENTRADA Y SALIDA (PERIFERICOS)

Se denomina dispositivos de entrada y salida a aquellos dispositivos encargados de incorporar y extraer información de un ordenador; los mismos se encuadran dentro de la denominada Arquitectura de von Neumann, arquitectura que da cuenta de las principales partes que una computadora.

Algunos ejemplos sencillos de dispositivos de E/S son los siguientes:
  • Impresoras multifuncionales. Estuvieron muy de moda a principios de la década del 2000, y permitían tanto imprimir documentos (salida), como escanearlos (entrada). E incluso tenían función de fotocopiado (entrada/salida).
  • Pantallas táctiles. Como la que posee nuestro teléfono móvil, en la que podemos ver la información que el sistema emite para nosotros (salida) y al mismo tiempo ingresarle información presionándola con nuestros dedos (entrada).
  • Dispositivos de redes. Módems y tarjetas de red son dispositivos que permiten conectar nuestro sistema a redes informáticas más vastas, de las que puede extraer o descargar información (entrada) o bien puede enviarla (salida), como cuando añadimos una foto a un correo electrónico.
  • Cascos de Realidad Virtual. Estos aparatos se colocan en la cabeza para simular una presencia real en un entorno virtual, emitiendo un mundo virtual en los visores dispuestos delante de nuestros ojos (salida) y recibiendo respuestas de nuestro comportamiento al mover la cabeza (entrada) en un proceso de retroalimentación que puede verse perfectamente en los videojuegos.

Conceptos operacionales basicos:
Es el conjunto de programas que administran los recursos de la computadora y que ayuda en el desarrollo y ejecución de los programas o software.
MS-DOS (Micro Soft Disk Operating System - Sistema Operativo en Disco) es un sistema patentado por Microsoft Corporation para computadoras personales PC's.
El MS-DOS es un sistema operativo monousuario y monotarea.
Al cumplir las dos condiciones antes mencionadas el procesador está en cada momento dedicado en exclusividad a la ejecución de un proceso, por lo que la planificación del procesador es simple y se dedica al único proceso activo que pueda existir en un momento dado.
MS-DOS es el que inicia la computadora y controla las actividades de la misma. Maneja la secuencia de las operaciones (flujo de datos), la entrada de datos, presentación en pantalla de programas e información desde y hacia varios componentes del hardware.
En general puede efectuar las siguientes tareas:

  • Manejo de archivos y directorios.
  • Mantenimiento de discos flexibles.
  • Configuración del equipo.
  • Optimización del uso de la memoria.
  • Aumento de la velocidad de los programas.

Modelo de von newman:
Von Neumann describió el fundamento de todo ordenador electrónico con programas almacenados. Describía, a diferencia de como pasaba anteriormente, como podía funcionar un ordenador con sus unidades conectadas permanentemente y su funcionamiento estuviese coordinado desde la unidad de control (a efectos prácticos es la CPU). Aunque la tecnología ha avanzado mucho y aumentado la complejidad de la arquitectura inicial, la base de su funcionamiento es la misma y probablemente lo seguirá siendo durante mucho tiempo. El artículo viene acompañado de una representación gráfica del funcionamiento.

Para conocer mas sobre la estructura, lee las unidades funcionales.


Ley de moure:

La Ley de Moorees un término informático originado en la década de 1960 y que establece que la velocidad del procesador o el poder de procesamiento total de las computadoras se duplica cada doce meses. En un principio, la norma no era muy popular pero sí se sigue utilizando hasta el día de hoy. Quien la acuñó fue Gordon Moore, el cofundador de la conocida empresa Intel de microprocesadores. Cuando las revistas de electrónica le preguntaron cómo se desarrollaría el área en los próximos diez años, él escribió un artículo en el que predijo el funcionamiento del mercado.
Que es la ley de Moore y para que sirve 1
Son los semiconductores, transistores y la creación del circuito integrado los que hacen posible la Ley de Moore. Antes de los transistores, en electrónica, se utilizaban los tubos de vacío, que tenían una tendencia a romperse y generaban demasiado calor. Por otra parte, el semiconductor es un material que actúa como conductor y aislante, y recién en 1947 se creó el primer transistor de la mano de John Bardeen y Walter Brattain. En 1958, Jack Kilby creaba el circuito integrado, y finalmente se creó el transistor plano. Todos estos elementos fueron los que permitieron que la tecnología avanzara de forma tan rápida, ya que todo esto permitía hacer componentes cada vez más pequeños y compactos.