jueves, 14 de mayo de 2009

Conceptos Básicos

Unidades de Medida utilizadas en Informática

Almacenamiento:

Bit acrónimo de Binary Digit (dígito binario) vale 1 ó 0 en el sistema numérico binario.
En el procesamiento y almacenamiento informático un bit es la unidad de información más pequeña manipulada por el ordenador.
Byte formado por 8 bits (o sea la combinación de 8 0 o 1) es equivalente a un único carácter que se utiliza para representar todo tipo de información como puede ser una letra, un número o un signo de puntuación.
KB - Kilobytes - 1.024 bytes
MB - Megabytes - 1.048.576 bytes
GB – Gigabytes – 1024 MB
TB - Terabyte - 1.024 GB. Aunque poco utilizada aún

PROCESAMIENTO:
La velocidad de procesamiento de un procesador se mide en megahercios.
Un megahercio es igual a un millón de hercios.
Hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un evento por segundo. Esto, en palabras simples, significa que un procesador que trabaje a una velocidad de 500 megahercios es capaz de repetir 500 millones de ciclos por segundo.
Gigahercio corresponde a 1.000 millones de hercios por segundo. En la actualidad es la unidad más frecuente dada la gran velocidad de los procesadores
”La velocidad de un equipo no solo depende de la capacidad de procesamiento del procesador”. Estas unidades de medida se utilizan también para medir la frecuencia de comunicación entre los diferentes elementos del ordenador.
VELOCIDAD TRANSMISION DE DATOS:
bit por segundo o bps se suele usar como base en el caso de definir las velocidades de transmisión. Los múltiplos de estos si que utilizan el SI o Sistema Internacional de medidas.
Kbps.- Kilobit por segundo = 1.000 bits por segundo.
Mbps.- Megabit por segundo = 1.000 Kbits por segundo.
Gbps.- Gigabit por segundo = 1.000 Mbits por segundo.

No hay comentarios:

Publicar un comentario