Bit es en realidad un acrónimo que significa «dígito binario«. Es la unidad más pequeña posible de información en la informática digital. Los ordenadores no usan números decimales para almacenar datos. En los equipos, todos los datos se almacenan en números binarios. Todos se basan en la lógica digital binaria. Cada bit puede tomar solo dos valores característicos 0 ó 1.
El origen del término «dígito binario» se atribuye a John Tukey, un científico que trabajaba en los Laboratorios Bell, y los usó por primera vez en 1947. Un byte es una cadena de 8 bits juntos. Un byte es, por tanto, una unidad de información más grande que el bit. El byte fue utilizado por primera vez por el Dr. Werner Buccholz, un científico que trabajaba en IBM, en 1956.
El ordenador convierte todos los datos en bits y bytes a través del sistema alfanumérico y decimal. La capacidad del disco duro de cualquier ordenador se da en giga bytes (abreviado como GB) generalmente. Como podrás deducir Internet es un océano de bits y de bytes. Los chips pueden ser de diferentes tipos, por ejemplo de 32 bits y de 64 bits.
Esto denota la cantidad de datos que pueden ser procesados por los chips. El ancho de banda de Internet se mide en kilobytes (miles de bytes) por segundo, es decir ‘kbps’ o megabytes por segundo (Mbps). Los bits y los bytes se suelen utilizar de manera diferente: los bits se utilizan para detallar velocidades de transmisión, por otra parte, los bytes se utilizan para describir capacidad de almacenamiento.
se mira bien todo lo que haces
Comentáis datos interesantes, pero ojo con ese titulo, es muy deficiente, pues no es adecuado para este contenido… Yo he entrado aquí buscando la historia, es decir, la aparición, evolución y transcurso del uso de los bytes al largo del tiempo y no esto. Aun así, repito que de todas maneras es información interesante y constructiva. Saludos!