sábado, 12 de diciembre de 2009

TERABYTE


Unidad de medida informática que se representa como "TB" y equivale a: 2 elevado al 40 bytes. En la práctica, un terabyte puede ser tanto 1.000.000.000.000 bytes (10 elevado al 12), como 1.099.511.627.776 bytes (1024 elevado a 4). Equivale a 1.024 veces un gigabyte.1 terabyte = 1024 gigabytes = 1.048.576 megabytes = 1.073.741.824 kilobytes = 1.099.511.627.776 bytes

Un terabyte es una unidad de medida de almacenamiento de datos cuyo símbolo es TB y puede equivaler a 1024 GB.
Confirmado en 1960, viene del griego τέρας, que significa monstruo.
Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores:
12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware.
12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (computer science) y en programación (computer programming) y, la mayor parte del software, emplea también esta

lunes, 30 de noviembre de 2009

MEGABYTE


El megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) o 220 (1.048.576 Octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte, ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los grandes archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes.
Se distingue del megabit (1.000.000 bits), con abreviación de Mbit o Mb (la "b" minúscula). Hay 8 bits en un octeto; por lo tanto, un megabyte (MB) es ocho veces más grande que un megabit (Mb).

KILOBYTE


Un kilobyte (pronunciado /kilobáit/) es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades).
Los Ordenadores de 8 bits tienen una capacidad máxima (sin paginación de memoria) de 64 K, o 65536 bytes (o a 216 bytes). El IBM PC original soportaba un máximo de 256 Kilobytes y los compatible IBM PC, tenían una capacidad máxima de 640 KB en el sentido binario, o 655.360 caracteres de datos.

BIT


Para la revista estadounidense de informática, véase Byte (revista).
Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).

BIT


Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Se puede imaginar un bit como una bombilla que puede estar en uno de los siguientes dos estados:
apagada o encendida

Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm. corresponden a 512 bytes.
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).

HISTORIA DE INTERNET


La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.
Las más antiguas versiones de estas ideas aparecieron a finales de los años 20. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración automática de teoremas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).
"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"
J.C.R Licklider[1]
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
Las ideas de Licklider sobre un sistema de redes interconectadas. Junto con Larry Roberts del MIT, inició un proyecto para empezar con una red similar. La primera conexión de ARPANET se estableció el 21 de noviembre de 1969, entre la Universidad de California, Los Ángeles y el Instituto de Investigaciones de Stanford. Antes del 5 de diciembre de 1969, se había formado una red de 4 nodos, añadiendo la Universidad de Utah y la Universidad de California, Santa Barbara. Usando ideas desarrolladas en la ALOHAnet, la ARPANET se inauguró en 1972 y creció rápidamente hasta el 1981. El número de hosts creció a 213, con uno nuevo añadiéndose aproximadamente cada 20 días.[4] [5]
ARPANET se convirtió en el núcleo de lo que posteriormente sería Internet, y también en una herramienta primaria en el desarrollo de la tecnología del momento. ARPANET evolucionó usando estándares del proceso RFC, aún usado actualmente para proponer y distribuir protocolos y sistemas de Internet. El RFC1, titulado "Host Software", fue escrito por Steve Crocker desde la Universidad de California, Los Ángeles, y publicado el 7 de abril de 1969.
Las colaboraciones internacionales en ARPANET eran escasas; por varias razones políticas los desarrolladores europeos estaban preocupados en desarrollar las redes X.25, con la notable excepción del Norwegian Seismic Array en 1972 seguidos en 1973 por enlaces de los satélites a la estación terrestre de Tanum en Suecia y en la University College de Londres.pu

CARLOS SLIM


Carlos Slim Helú
(Ciudad de México, 28 de enero de 1940) es un empresario mexicano. Es considerado por la revista Forbes como el tercer hombre más rico del mundo.[1]Carlos Slim Helú es ingeniero civil de profesión, egresado de la Universidad Nacional Autónoma de México, donde impartió la cátedra de Álgebra y Programación Lineal. Desde joven comenzó a invertir en la compra de negocios, los cuales hacía prosperar, así como en la compraventa de bienes raíces en el centro de la Ciudad de México.
A principios de los años ochenta y en medio de una crisis que paralizó a
México y con fugas de capitales históricas, Slim y su grupo realizaban inversiones fuertes en el país, adquiriendo varias empresas a "muy buen precio".
Carlos Slim ha mencionado repetidamente que esta etapa del país le recordó por lo que pasó su padre Julián Slim, cuando en
1914 y en plena Revolución Mexicana le compró a su hermano mayor el 50 por ciento restante del negocio que tenían en común, llamado La Estrella de Oriente, creyendo así en México y en su destino. «Si mi papá, en plena Revolución, con el país sacudido, sin todavía tener familia, siendo extranjero y sin el arraigo que te da el tiempo, confió en México y en su futuro, cómo no iba a hacerlo yo», ha dicho Carlos Slim en algunas entrevistas.[cita requerida]
La actividad de Carlos Slim se ha venido diversificando en varios sectores. En
1997 adquirió acciones de la empresa informática Apple Computer, justo antes del lanzamiento de iMac, logrando multiplicar su fortuna.[2]
En 1997 adquirió Prodigy, un proveedor estadounidense de Internet. Carlos Slim logró hacer de esta empresa un poderoso servidor de diversos servicios de Internet hasta lograr una alianza con MSN, lanzando un portal en castellano de la mano con Microsoft. Éste, al poco tiempo, se convertiría en portal líder en México.
El 10 de septiembre de
2008 compra un 6.4% del The New York Times, es decir 9,1 millones de acciones por un valor aproximado de $123 millones de dólares. De acuerdo a Slim este es un movimiento estrictamente financiero y no una estrategia para entrar en el mundo de los medios estadounidenses. Con esta participación accionaria se convierte en el tercer accionista más grande de la compañía, después de la familia Ochs-Sulzberger, quienes han mantenido el control accionario el Times desde 1898, y del fondo de cobertura Harbinger Capital Partners.