Tarea

Camino de datos.

Es la sección del computador encargada de manipular y transformar los datos procedentes de la memoria o los registros internos, para obtener los resultados .

Su labor es soportar el conjunto de operaciones que precisan las instrucciones del repertorio que es capaz de interpretar la unidad de control.

Unidad de control.

Es la sección del computador encargada de interpretar las instrucciones del programa y gobernar la ejecución de las mismas.

La unidad de control emite señales de control (ordenes) externas a la CPU para producir el intercambio de datos con la memoria y los módulos de E/S. Tambien emite señales de control internas para transferir datos entre registros, hacer que la ALU ejecute una función concreta y regular otras operaciones internas.

La unidad de control necesita dos registros:
1) Uno, llamado contador de programa, que contiene la dirección de las próxima instrucción por ejecutar. Su nombre se debe a que, excepción hecha de las rupturas de secuencia, este registro va aumentando su contenido de manera de direccionar a la siguiente instrucción;
2) Otro, llamado registro de instrucción, que tiene dos partes: una para el código de operación, que define el tipo de instrucción a ejecutar (suma, multiplicación, salto, etc.) y otra parte, que contiene la dirección del operando.
Sus componentes son:

– Decodificador: Se encarga de extraer el código de operación de la instrucción en curso (que está en RI), la analiza y emite señales necesarias al resto de elementos para su ejecución a través del secuenciador.

– Reloj: Proporciona una sucesión de pulsos eléctricos o ciclos a intervalos constantes, que marcan los instantes en que han de comenzar los distintos pasos de que consta cada
instrucción.

– Secuenciador (S): También llamado controlador. En este dispositivo se generan órdenes muy elementales (microórdenes) que, sincronizadas por los pulsos del reloj, hacen que se vaya ejecutando poco a poco la instrucción que está cargada en el RI.

Registros.

Un registro es una memoria de alta velocidad y poca capacidad, integrada en el microprocesador, que permite guardar transitoriamente y acceder a valores muy usados, generalmente en operaciones matemáticas.

Los registros están en la cumbre de la jerarquía de memoria, y son la manera más rápida que tiene el sistema de almacenar datos.

La cantidad, tamaño y función de los registros varía según el diseño del procesador

Es una de las decisiones más importantes del diseño

Tipos de Registros

Visibles al programador                                                                                                                                         Propósito general                                                                                                                                                    • Cuanto más generales, mayor flexibilidad para el usuario                                                                • Frecuentemente existen restricciones. Ej., la suma se aplica siempre sobre el                            registro AC.

Datos                                                                                                                                                                             • Operandos de ALU

Direcciones                                                                                                                                                                  • Segmento, puntero de stack, etc.

Códigos de condición                                                                                                                                                • Se acceden implícitamente mediante instrucciones de salto condicional                                    • En general forman parte de la palabra de estado

Control y estado (PC, IR, MBR y MAR)                                                                                                                Algunos son visibles al programador y otros no                                                                                      Ej. PC, IR, MBR, MAR, palabra de estado

Unidad Aritmética Lógica.

La ALU o unidad aritmético lógica consiste en un circuito digital que permite realizar operaciones ariméticas y lógicas entre dos números.

Es necesario que se deba determinar en su interior las condiciones en las que son procesados los operandos, como si es negativo o positivo, si se ha desbordado la capacidad, con esta información se determinará cual será la decisión a tomar.

Esta unidad realiza cálculos (suma, resta, multiplicación y división) y operaciones lógicas (comparaciones). Transfiere los datos entre las posiciones de almacenamiento.

Tiene un registro muy importante conocido como: Acumulador ACC Al realizar operaciones aritméticas y lógicas, la UAL mueve datos entre ella y el almacenamiento. Los datos usados en el procesamiento se transfieren de su posición en el almacenamiento a la UAL.

Los datos se manipulan de acuerdo con las instrucciones del programa y regresan al almacenamiento. Debido a que el procesamiento no puede efectuarse en el área de almacenamiento, los datos deben transferirse a la UAL. Para terminar una operación puede suceder que los datos pasen de la UAL al área de almacenamient o varias veces.

Las ALUs existen en todo circuito electrónico moderno, desde realizar incrementos de 1 al tiempo actual, en contadores de circuitos sencillos e incrementadores en calculadoras básicas, hasta las sofisticadas en los procesadores Phenom AMD II y Core i7 de Intel; en procesadores gráficos, tarjetas de sonido, lectores ópticos (CD) y televisores de alta definición en donde se ubican ALUs muy potentes.

Típicamente, una unidad aritmético lógica está compuesta por un circuito operacional, un registro de entradas, un registro acumulador y un registro de estados. Estas entidades permiten el correcto funcionamiento de la ALU y, por ejemplo, son responsables de la resolución de operaciones aritméticas de números enteros, operaciones lógicas de bits, operaciones de desplazamiento de bits y otras más complejas. Entre estas últimas pueden contarse, por caso, calcular la raíz cuadrada, emular a un coprocesador y múltiples otras.

Segmentación.

La segmentación de cauce (pipelining) es una forma particularmente efectiva de organizar el hardware de la CPU para realizar más de una operación al mismo tiempo.

Consiste en descomponer el proceso de ejecución de las instrucciones en fases o etapas que permitan una ejecución simultánea.

Explota el paralelismo entre las instrucciones de un flujo secuencial.

Características.

La segmentación es una técnica de mejora de prestaciones a nivel de diseño hardware.

La segmentación es invisible al programador.

Necesidad de uniformizar las etapas.

              Al tiempo de la más lenta

El diseño de procesadores segmentados tiene gran dependencia del repertorio de instrucciones.

Bibliografía

http://quegrande.org/apuntes/EI/2/ECm1/teoria/07-08/tema_4.pdf

http://weblidi.info.unlp.edu.ar/catedras/arquitecturaP2003/teorias/notas%20clase%2004.pdf

http://www.dia.eui.upm.es/asignatu/Arq_com/AC%20Grado/Paco%20Aylagas/3-Segmentaci%C3%B3n.pdf

http://rafazarquitectura.blogspot.com/2010/09/unidad-aritmetica-logica.html

http://www.internetglosario.com/805/UnidadAritmeticoLogica.html

https://www.fing.edu.uy/inco/cursos/arqsis2/teorico/clase03.pdf

http://www.portalhuarpe.com/Medhime20/Sitios%20con%20Medhime/Computaci%C3%B3n/COMPUTACION/Menu/modulo%205/5-5.htm

http://www.portalhuarpe.com/Medhime20/Sitios%20con%20Medhime/Computaci%C3%B3n/COMPUTACION/Menu/modulo%205/5-6.htm

Frecuencia del procesador

El procesamiento de instrucciones se realiza en ciclos. Pero no todas las funciones se ejecutan en un único ciclo. El procesamiento de instrucciones complejas requiere la ejecución de varias acciones por lo que pueden necesitar varios ciclos.

Frecuencia de trabajo interna.

Determina cuántos ciclos para nanoinstrucciones tienen lugar cada segundo. Un procesador con una frecuencia de 100 MHZ ejecuta 100 millones de nanoinstrucciones por segundo. Como cada instrucción necesita varias etapas, siempre se dan menos de 100 millones de ciclos de instrucción por segundo.

Frecuencia externa.

Indica la velocidad con la que el procesador puede acceder a la memoria RAM. La velocidad depende aquí de la placa base.

La frecuencia interna y externa no tiene  porqué ser iguales.  En función del tamaño y estructura del juego de instrucciones,  una CPU puede ser más rápida que otra con la misma frecuencia interna. Esto depende fundamentalmente de la cantidad media de nanoinstrucciones que tiene cada instrucción.

Fuentes consultadas:

http://www.alegsa.com.ar/Diccionario/C/14258.php

https://books.google.hn/books?id=nDb5ywe_PPoC&pg=PA64&lpg=PA64&dq=frecuencia+interna+cpu&source=bl&ots=4tI72Pvq-G&sig=MKDpfW3jS20OXQk8JVtR2S2o29w&hl=es&sa=X&ved=0ahUKEwiexfn1ou3RAhWK5SYKHVlpD_IQ6AEISDAK#v=onepage&q=frecuencia%20interna%20cpu&f=false

Hercio

El Hertz, Hertzio, hercio o Hz es una unidad física usada para medir la frecuencia de ondas y vibraciones de tipo electromagnético. Debe su nombre a su descubridor, H.R. Hertz quien vió que los impulsos eléctricos se comportaban como ondas, y por tanto se podía medir su frecuencia contando los ciclos que hacían por segundo.
La magnitud que mide el hercio se denomina frecuencia y es, en este sentido, la inversa del período. Un hercio es la frecuencia de una partícula que sufre una oscilación en un período de un segundo.
Otras unidades Hertz

• Kilohertz (KHz) – 1000 Hz
• Megahertz (MHz) – 1000 KHz
• Gigahertz (GHz) – 1000 MHz
• Terahertz (THz) – 1000 GHz
• Petahertz (PHz) – 1000 THz
• Exahertz (EHz) – 1000 PHz
• Zettahertz (ZHz) – 1000 EHz
• Yottahertz (YHz) – 1000 ZHz

Fuentes consultadas:

http://www.mastermagazine.info/termino/5236.php

http://www.tecnologiahechapalabra.com/salud/eventos/articulo.asp?i=6631

http://www.alegsa.com.ar/Dic/hertz.php

El transistor

¿Qué es un transistor?

Un transistor es un dispositivo que regula el flujo de corriente o de tensión actuando como un interruptor o amplificador para señales electrónicas.

El transistor, inventado en 1951, es el componente electrónico estrella, pues inició una auténtica revolución en la electrónica que ha superado cualquier previsión inicial. También se llama Transistor Bipolar o Transistor Electrónico.

Vienen a sustituir a las antiguas válvulas termoiónicas de hace unas décadas. Gracias a ellos fue posible la construcción de receptores de radio portátiles llamados comúnmente “transistores“, televisores que se encendían en un par de segundos, televisores en color, etc. Antes de aparecer los transistores, los aparatos a válvulas tenían que trabajar con tensiones bastante altas, tardaban más de 30 segundos en empezar a funcionar, y en ningún caso podían funcionar a pilas debido al gran consumo que tenían.

Los transistores son unos elementos que han facilitado, en gran medida, el diseño de circuitos electrónicos de reducido tamaño, gran versatilidad y facilidad de control. En la siguiente imagen podemos ver varios transistorores diferentes.

Polarización de un Transistor

Una polarización correcta permite el funcionamiento de este componente. No es lo mismo polarizar un transistor NPN que PNP. Generalmente podemos decir que la unión base – emisor se polariza directamente y la unión base – colector inversamente.

Zonas de Trabajo

Corte: No circula intensidad por la Base, por lo que, la intensidad de Colector y Emisor también es nula. La tensión entre Colector y Emisor es la de la batería. El transistor, entre Colector y Emisor se comporta como un interruptor abierto. IB es igual a IC es igual a IE es igual a 0; VCE es igual a Vbat

Saturación: Cuando por la Base circula una intensidad, se aprecia un incremento de la corriente de colector considerable. En este caso el transistor entre Colector y Emisor se comporta como un interruptor cerrado. De esta forma, se puede decir que la tensión de la batería se encuentra en la carga conectada en el Colector.

Activa: Actúa como amplificador. Puede dejar pasar más o menos corriente. Cuando trabaja en la zona de corte y la de saturación se dice que trabaja en conmutación. En definitiva, como si fuera un interruptor. La ganancia de corriente es un parámetro también importante para los transistores ya que relaciona la variación que sufre la corriente de colector para una variación de la corriente de base. Los fabricantes suelen especificarlo en sus hojas de características, también aparece con la denominación hFE. Se expresa de la siguiente manera:

ß = IC / IB

Fuentes consultadas:

https://www.ecured.cu/Transistor

http://www.areatecnologia.com/TUTORIALES/EL%20TRANSISTOR.htm

¿Qué pasa con la Ley de Moore?

¿Qué es la Ley de Moore? 

La Ley de Moore es un término informático originado en la década de 1960 y que establece que la velocidad del procesador o el poder de procesamiento total de las computadoras se duplica cada doce meses.

Gordon Moore (cofundador de la empresa Intel) la acuñó en 1965, afirmando que el número de transistores de un microprocesador se duplicaría cada año. Luego, en 1975, Moore actualizó la Ley, al afirmar que el número de transistores de un microprocesador se duplicaría no en un año, sino en dos.

Si hablamos justamente, la Ley de Moore no es ni siquiera una ley, ya que no tiene fundamentos físicos, y solo se vuelve real por las acciones de los seres humanos. Muchas de las razones de que este Ley siga funcionando son puramente psicológicas y están influidas por el mercado: las compañías están luchando unas contra otras por conseguir circuitos más potentes y microprocesadores que funcionen mejor. La parte de investigación y desarrollo es inmensa y busca la producción de componentes más pequeños pero con mejor performance.

La “Ley de Moore” se ha venido cumpliendo con cierto grado de fidelidad desde el año 1965. En algunos períodos el avance ha sido más o menos rápido pero en términos generales podemos afirmar que Moore estaba en lo cierto. Esta duplicación en el número de transistores se ha podido llevar a cabo gracias a las innovaciones técnicas producidas en el ámbito de la construcción a escala cada vez más pequeña. Pero los últimos procesadores del mercado nos han situado ya en la escala de los 14nm, algo que empieza a ser difícilmente superable.

¿El fin de la Ley de Moore?

Desde hace algunos años este proceso tecnológico se está encontrando las primeras barreras:

En primer lugar se encuentran factores físicos: la cantidad de calor generado por los circuitos, los expertos afirman que, a partir de los 14 nm, ya resulta muy complicado seguir el ritmo de duplicación de transistores, porque no se puede disipar el calor correctamente; el tamaño de las conexiones, cuyo límite pudiera estar en solo 10 átomos; o efectos cuánticos, dado que los transistores de última generación tienen un tamaño de unos 100 átomos y según se reducen se complica el cambio de estado entre ceros y unos, las unidades básicas de cálculo.

Por otra, se encuentra el factor económico debido al coste del desarrollo: una línea para la fabricación de una nueva generación de chips cuesta alrededor de 7.000 millones de dólares y se estima que en la próxima década podría ascender a 16.000 millones de dólares. Una inversión que pocos fabricantes pueden afrontar, sobre todo si no tienen garantizado un retorno en ventas que mantenga el beneficio.

¿Qué se plantea frente al posible final de la Ley de Moore?

Para contrarrestar estos problemas se han propuesto varias soluciones, algunas de las cuales ya se han implementado.

En primer lugar, se limitó la velocidad de los relojes internos, con objeto de producir menos calor. De manera simultánea se produjeron varios núcleos. La especialización de los chips es otra solución que se ha presentado a estos problemas.

También se han planteado soluciones a futuro: la industria lleva años ya estudiando nuevas técnicas de construcción capaces de sustituir la actual estructura de los microprocesadores, conocida como FinFET.

Probablemente también cambiará la geometría de los chips, a medida que los fabricantes empiecen a aplicar varias capas de circuitos para aumentar su densidad. Y podemos esperar que aumenten los esfuerzos para mejorar la eficiencia energética por encima de la velocidad.

En el futuro podrían aparecer soluciones más innovadoras: desde la computación cuántica, hasta la neuromórfica, inspirada en el cerebro y su estructural neuronal.

También se está considerando cambiar el silicio por materiales como el grafeno o pasar de láminas bidimensionales a estructuras 3D. O, algo aun más innovador, dejar de mover corrientes de electrones y utilizar una de sus propiedades básicas, su spin, que se podría definir como su manera de girar.

¿Y cómo van a fijar sus objetivos los fabricantes de chips a partir de ahora? Según la revista científica Nature, ya no se prioriza el aumento de transistores, sino las aplicaciones. Según el tipo de programas y aplicaciones que se vayan a usar, se diseñarán CPUs adaptadas a su arquitectura, para sacarles el máximo provecho.

En cualquier caso, estas estrategias implican un cambio radical en la forma de diseñar y producir memorias y procesadores.

Se podría concluir que puede que la ley de Moore esté a punto de morir, pero la innovación desde luego que no lo hará.

Fuentes consultadas:

http://www.nature.com/news/the-chips-are-down-for-moore-s-law-1.19338

http://www.vix.com/es/btg/curiosidades/4933/que-es-la-ley-de-moore-y-para-que-sirve

http://www.mundopepone.com/2015/05/03/de-transistores-planares-a-finfet/

http://www.pcactual.com/noticias/actualidad/final-moore_13196

https://www.technologyreview.es/informatica/50940/la-ley-de-moore-llegara-a-su-fin-en-2021-segun/

https://www.bbvaopenmind.com/la-ley-de-moore-y-el-fin-de-la-sociedad-tecnologica/

http://computerhoy.com/noticias/hardware/ley-moore-vigente-durante-50-anos-morira-mes-que-viene-40461