A través de la historia de la humanidad, el hombre ha utilizado diferentes formas decomunicarse, desde la comunicación con señas, hasta la comunicación a distancia por medio de dispositivos tecnológicos avanzados.Los avances logrados en el área de telecomunicaciones han permitido que el hombre sedesempeñe de una manera más eficie
nte, y es esta eficiencia lo que en gran medida, hamotivado a empresas nuevas que día a día exigen mayores retos a quienes lo desarrollan.De esta forma, se ha llegado a alternativas de gran impacto a través del tiempo comoson: Internet (correo electrónico), tren rápido, avión, cables de comunicación (ejemplo:fibra óptica), telefonía celular, televisión por cable, etc.Al comenzar el tercer milenio, la humanidad está creando una red global de transmisióninstantánea de información, de ideas y de juicios de valor en la ciencia, el comercio, laeducación, el entretenimiento, la política, el arte, la religión, y en todos los demáscampos. En esta red ya se puede ver en tiempo real, el sentir de la humanidad, pero almismo tiempo también es posible tergiversar, manipular o frivolizar este sentir; es decir, paradójicamente, los medios de comunicación también pueden usarse para separar yaislar.En base a lo anterior, el presente trabajo pretende explicar el cómo ha ido cambiando laforma de comunicarse de la humanidad, a partir de los avances tecnológicos. Además deexplicar, también pretende analizar estos cambios a partir de lo que son la comunicación,sus funciones y objetivos, así como también lo que es la información y su trascendenciadentro de la comunicación, logrando de esta forma dilucidar las consecuencias que estoscambios han producido en la comunicación y, en general, en la realidad de la humanidaddel siglo XXI; un mundo inmerso en un proceso de globalización.
domingo, 13 de octubre de 2013
LAS TABLET
Una tableta (del inglés: tablet o tablet computer) es una computadora portátil de mayor tamaño que un teléfono inteligente o una PDA, integrado en una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente con los dedos o un estilete (pasivo o activo), sin necesidad de teclado físico ni ratón. Estos últimos se ven reemplazados por un teclado virtual y, en determinados modelos, por una mini-trackball integrada en uno de los bordes de la pantalla.3 4
El término puede aplicarse a una variedad d
e formatos que difieren en el tamaño o la posición de la pantalla con respecto a un teclado. El formato estándar se llama pizarra (slate), habitualmente de 7 a 10 pulgadas, y carece de teclado integrado aunque puede conectarse a uno inalámbrico (por ej., Bluetooth) o mediante un cable USB (muchos sistemas operativos reconocen directamente teclados y ratones USB). Las mini tabletas son similares pero de menor tamaño, frecuentemente de 6 a 7 pulgadas. Otro formato es el portátil convertible, que dispone de un teclado físico que gira sobre una bisagra o se desliza debajo de la pantalla, pudiéndose manejar como un portátil clásico o bien como una tableta. Lo mismo sucede con los aparatos de formato híbrido, que disponen de un teclado físico, pero pueden separarse de él para comportarse como una pizarra. Los booklets incluyen dos pantallas, al menos una de ellas táctil, mostrando en ella un teclado virtual. Los tabléfonos son teléfonos inteligentes grandes y combinan las características de éstos con las de las tabletas, o emplean parte de ambas.
TRANSPORTE
El sueño de cualquier conductor atrapado en un cola de tráfico es poder apretar un botón, subir encima de los coches alrededor y volar a casa, llegando justo a tiempo para la cena.
Según los últimos avances tecnológicos, este sueño – o en otras palabras un vehículo práctico que permite llevar a sus pasajeros unos 322 kilómetros por el aire y hasta 24 kilómetros por tierra – tardará todavía una décadas en llegar.
Pero ingenieros de la NASA, de Boeing Co. Y otras empresas punteras dicen que los fundamentos para crear un vehículo de estas características ya existen. De hecho desde hace décadas, equipos de investigación han estado intentando construir vehículos de este tipo. El problema es que la mezcla de coches y aviones es una mezcla cara y complicada, pero no por ello inalcanzable.
En la NASA, el primer objetivo es transformar aviones pequeños y dentro 5 años investigadores de la NASA esperan desarrollar tecnología que permite crear un avión pequeño que pueda salir de aeropuertos regionales, cueste menos de $100,000 (83,192 Euros), hace tan poco ruido como una motocicleta y cuyo funcionamiento es tan sencillo como el de un coche. Aunque no tendría capacidad de ir sobre la tierra, su ventaja sería que su sencillez permitiría a las personas normales utilizarlo para viajar distancias cortas.
Dentro de 10 años la NASA espera haber creado la tecnología que permite ir de puerta a puerta. Es decir, vehículos que, aunque su esencia central sería siendo la de un avión pequeño, fuesen capaces de ir sobre tierra, una distancia corta. Por ejemplo serían capaces de aterrizar en el aeropuerto más cercano y luego ir a casa sobre tierra.
EL AUTOMOVIL
El término automóvil (del griego αὐτο "uno mismo", y del latín mobĭlis "que se mueve") se utiliza por antonomasia para referirse a los automóviles de turismo,1 En una definición más genérica se refiere a un vehículo autopropulsado destinado al transporte de personas o mercancías sin necesidad de carriles.1 Existen diferentes tipos de automóviles, como camiones, autobuses,2 furgonetas,3 motocicletas,4 motocarros o cuatriciclos.
En la configuración más extendida un automóvil tiene varias ruedas con neumáticos y capacidad de al menos una plaza para el conductor. Algunas ruedas, normalmente las delanteras, (pueden ser las traseras como en un dumper) pueden cambiar su orientación hacia los lados para permitir giros y tomar curvas, accionadas por el conductor mediante un volante.
En otras configuraciones menos usuales puede llevar cadenas y/o tener capacidades para navegar anfibio o sumergirse, así como un sistema de controles y manejo diferente al típico. Existen ya versiones prototipo capaces de circular como un auto y volar como un avión
El primer automóvil con motor de combustión interna se atribuye a Karl Friedrich Benz de la ciudad alemana de Mannheim en 1886 con el modelo Benz Wheeler (rodante en inglés) o Motorwagen.5 Poco después, otros pioneros como Gottlieb Daimler y Wilhelm Maybachpresentaron a su vez sus modelos. El primer viaje largo en un automóvil lo realizó Bertha Benz en 1888, al ir de Mannheim a Pforzheim, ciudades separadas entre sí por unos 105 km.6 Cabe destacar que fue un hito en la automovilística antigua, dado que un automóvil de esta época tenía como velocidad máxima unos 20 km/h, gastaba muchísimo más combustible de lo que gasta ahora un vehículo a esa misma velocidad y la gasolina se compraba en farmacias, donde no estaba disponible en grandes cantidades.[cita requerida]
El 8 de octubre de 1908, Henry Ford comenzó a producir automóviles en una cadena de montaje con el Ford modelo T, lo que le permitió alcanzar cifras de fabricación hasta entonces impensables.
LOS SIG
¿Qué es un SIG?
Un Sistema de Información Geográfica (SIG o GIS, en su acrónimo inglés [Geographic Information System]) es una integración organizada de hardware, software y datos geográficos diseñada para capturar, almacenar, manipular, analizar y desplegar en todas sus formas la información geográficamente referenciada con el fin de resolve
r problemas complejos de planificación y degestión.
FUNCIONAMIENTO DE UN SIGEl SIG funciona como una base de datos con información geográfica (datos alfanuméricos) que se encuentra asociada por un identificador común a los objetos gráficos de un mapa digital. De esta forma, señalando un objeto se conocen sus atributos e, inversamente, preguntando por un registro de la base de datos se puede saber su localización en la cartografía.
La razón fundamental para utilizar un SIG es la gestión de información espacial. El sistema permite separar la información en diferentes capas temáticas y las almacena independientemente, permitiendo trabajar con ellas de manera rápida y sencilla, y facilitando al profesional la posibilidad de relacionar la información existente a través de la topología de los objetos, con el fin de generar otra nueva que no podríamos obtener de otra forma
ROUTERS Y ORDENADORES
Los ordenadores y routers utilizan las tablas de enrutamiento para dirigir los paquetes IP entre las máquinas conectadas localmente. Las tablas pueden ser construidos de forma manual o automáticamente a través de DHCP para un equipo individual o un protocolo de enrutamiento para los routers de sí mismos. En un solo homed situaciones, una ruta por defecto por lo general apunta hacia "arriba" hacia un ISP proporciona el transporte. De más alto nivel de los ISP utilizan el Border Gateway Protocol para solucionar rutas de acceso a un determinado rango de direcciones IP a través de las complejas conexiones de la Internet global. [cita requerida]
Las instituciones académicas, las grandes empresas, gobiernos y otras organizaciones pueden realizar el mismo papel que los ISP, con la participación en el intercambio de tráfico y tránsito de la compra en nombre de sus redes internas de las computadoras individuales. Las redes de investigación tienden a interconectarse en subredes grandes como GEANT, GLORIAD, Internet2, y de investigación nacional del Reino Unido y la red de la educación, Janet. Estos a su vez se construyen alrededor de las redes más pequeñas (véase la lista de organizaciones académicas de redes informáticas).[cita requerida]
No todas las redes de ordenadores están conectados a Internet. Por ejemplo, algunos clasificados los sitios web de los Estados sólo son accesibles desde redes seguras independientes.
EL INTERNET
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos.[8] Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.[9] [10] [11]
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.[12] [13]
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.[14] [15] [16]
1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.[17]
1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.[18] [19]
1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.[20] [21]
1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.[12] [13]
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.[14] [15] [16]
1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.[17]
1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.[18] [19]
1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.[20] [21]
1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.
HISTORIA DEL COMPUTADOR
La historia de las computadoras personales comenzó en los años 1970. Una computadora personal está orientada al uso individual y se diferencia de una computadora mainframe, donde las peticiones del usuario final son filtradas a través del personal de operación o un sistema de tiempo compartido, en el cual un procesador grande es compartido por muchos individuos. Después del desarrollo del microprocesador, las computadoras personales llegaron a ser más económicos y se popularizaron. Las primeras computadoras personales, generalmente llamados microcomputadoras, fueron vendidos a menudo como kit electrónicos y en números limitados. Fueron de interés principalmente para aficionados y técnicos.
Originalmente el término "computadora personal" apareció en un artículo del New York Times el 3 de noviembre de 1962, informando de la visión de John W. Mauchly sobre el futuro de la computación, según lo detallado en una reciente reunión del American Institute of Industrial Engineers. Mauchly indicó, "No hay razón para suponer que un chico o chica promedio, no pueda ser dueño de una computadora personal".1
Seis años más tarde un fabricante tomó el riesgo de referirse a su producto de esta manera, cuando Hewlett-Packard hizo publicidad de sus "Powerful Computing Genie" como "La nueva computadora personal Hewlett-Packard 9100A".2 Este anuncio fue juzgado como demasiado radical para la audiencia a la que iba destinado, y fue reemplazado por un anuncio mucho más sobrio para la calculadora programable HP 9100A.3 4
Durante los siguientes siete años la expresión había ganado suficiente reconocimiento, por lo que cuando la revista Byte publicó su primera edición, se refirió a sus lectores como "en el campo de la computación personal",5 y Creative Computing definió la computadora personal como un "sistema no-compartido (es decir, que no era de tiempo compartido, como los grandes equipos de la época), que cuenta con suficiente potencia de procesamiento, y capacidades de almacenamiento para satisfacer las necesidades de un usuario individual".6 Dos años más tarde, ocurrió lo que la revista Byte llamó la "Trinidad de 1977" de las pequeñas computadoras pre-ensambladas, que llegaron al mercado7 el Apple II y el PET 2001, que fueron promocionados como computadoras personales,8 9 mientras que el TRS-80 era descrito como un microcomputador usado para las tareas del hogar incluyendo la "gestión financiera personal". En 1979 fueron vendidos sobre medio millón de microcomputadoras y los jóvenes de esos días tuvieron un nuevo concepto de la computadora personal.10
COMPUTADORAS
¿QUE ES UN COMPUTADOR?
Un computador es una maquina de propósito general que procesa datos, de acuerdo con las instrucciones que recibe el computador toma los datos que el usuario le da, hace algo con ellos (los procesa) y entrega un resultado (información en gráfico, un calculo). Por ser de propósito general, basta con cambiar las instrucciones para que el computador cumpla con infinidad de tareas y funciones; gracias a ello un PC puede usarse para labores diferentes, como procesar textos, realizar operaciones financieras, organizar y almacenar información, dibujar, jugar, etc.
Un computador esta formado por hardware y software. El hardware es la parte física, lo que se puede tocar: por ejemplo los componentes internos, cables, teclado, ratón, monitor, incluso dispositivos adicionales como impresora, módem, etc. El software, que por su parte, son programas de computador, son enormes listados e instrucciones que le indican al computador cuales son las tares que debe desempeñar.
Sin software, un computador es una maquina inservible, sin vida (es el alma del computador). A diferencia del hardware (que es el cuerpo del computador), el software no es algo físico: no se puede tocar (lo único tangible son los medios en los que se almacenan los programas de computador, como disquetes, disco duros, CD-ROM, etc.)
Actualmente un computador consiste en un número de componentes separados que trabajan en conjunto formando el sistema del computador. Estos componentes están conectados entre sí por medio de conexiones e incluyen:
Teclado.
Monitor.
Unidad Central de procesamiento (CPU).
Dispositivos de almacenamiento de datos (Disquetera, Disco Duro, CD-ROM, etc.)
Impresoras. (Dispositivos de impresión de datos).
Periféricos. (Escáner, Módem - Fax, etc.)
Mouse
Un computador es una maquina de propósito general que procesa datos, de acuerdo con las instrucciones que recibe el computador toma los datos que el usuario le da, hace algo con ellos (los procesa) y entrega un resultado (información en gráfico, un calculo). Por ser de propósito general, basta con cambiar las instrucciones para que el computador cumpla con infinidad de tareas y funciones; gracias a ello un PC puede usarse para labores diferentes, como procesar textos, realizar operaciones financieras, organizar y almacenar información, dibujar, jugar, etc.
Un computador esta formado por hardware y software. El hardware es la parte física, lo que se puede tocar: por ejemplo los componentes internos, cables, teclado, ratón, monitor, incluso dispositivos adicionales como impresora, módem, etc. El software, que por su parte, son programas de computador, son enormes listados e instrucciones que le indican al computador cuales son las tares que debe desempeñar.
Sin software, un computador es una maquina inservible, sin vida (es el alma del computador). A diferencia del hardware (que es el cuerpo del computador), el software no es algo físico: no se puede tocar (lo único tangible son los medios en los que se almacenan los programas de computador, como disquetes, disco duros, CD-ROM, etc.)
Actualmente un computador consiste en un número de componentes separados que trabajan en conjunto formando el sistema del computador. Estos componentes están conectados entre sí por medio de conexiones e incluyen:
Teclado.
Monitor.
Unidad Central de procesamiento (CPU).
Dispositivos de almacenamiento de datos (Disquetera, Disco Duro, CD-ROM, etc.)
Impresoras. (Dispositivos de impresión de datos).
Periféricos. (Escáner, Módem - Fax, etc.)
Mouse
Historia del teléfono Movil
La historia del teléfono móvil se remonta a los inicios de la Segunda guerra mundial, donde ya se veía que era necesaria la comunicación a distancia de un lugar a otro, es por eso que la compañía Moto rola creó un equipo llamado Handie Talkie H12-16,[ que es un equipo que permite el contacto con las tropas vía ondas de radio cuya banda de frecuencias en ese tiempo no superaban los 600 khz.
Comenzaron a perfeccionar y amoldar las características de este nuevo sistema revolucionario ya que permitía comunicarse a distancia. Fue así que en los años 1980 se llegó a crear un equipo que ocupaba recursos similares a los Handie Talkie pero que iba destinado a personas que por lo general eran grandes empresarios y debían estar comunicados, es ahí donde se crea el teléfono móvil y marca un hito en la historia de los componentes inalámbricos ya que con este equipo podría hablar a cualquier hora y en cualquier lugar.
iniciosLos primeros sistemas de telefonía móvil civil empiezan a desarrollarse a partir de finales de los años 40 en los Estados Unidos. Eran sistemas de radio analógicos que utilizaban en el primer momento modulación en amplitud y posteriormente modulación en frecuencia (FM). Se popularizó el uso de sistemas FM gracias a su superior calidad de audio y resistencia a las interferencias. El servicio se daba en las bandas de HF y VHF.
primera generaciónEn 1981 el fabricante Ericsson lanza el sistema NMT 450 (Nordic Mobile Telephony 450 MHz). Este sistema seguía utilizando canales de radio analógicos (frecuencias en torno a 450 MHz) con modulación en frecuencia (FM). Era el primer sistema del mundo de telefonía móvil tal como se entiende hasta hoy en día.
Los equipos 1G pueden parecer algo aparatosos para los estándares actuales pero fueron un gran avance para su época, ya que podían ser trasladados y utilizados por una única persona.
segunda generacion En la década de 1990 nace la segunda generación, que utiliza sistemas como GSM, IS-136, iDEN e IS-95. Las frecuencias utilizadas en Europa fueron de 900 y 1800 MHz.
El desarrollo de esta generación tiene como piedra angular la digitalización de las comunicaciones. Las comunicaciones digitales ofrecen una mejor calidad de voz que las analógicas, además se aumenta el nivel de seguridad y se simplifica la fabricación del Terminal (con la reducción de costos que ello conlleva). En esta época nacen varios estándares de comunicaciones móviles: D-AMPS (EE. UU.), Personal Digital Cellular (Japón), cdmaOne (EE. UU. y Asia) y GSM.
Muchas operadoras telefónicas móviles implementaron Acceso múltiple por división de tiempo (TDMA) y Acceso múltiple por división de código (CDMA) sobre las redes Ampsexistentes convirtiéndolas así en redes D-AMPS. Esto trajo como ventaja para estas empresas poder lograr una migración de señal analógica a señal digital sin tener que cambiar elementos como antenas, torres, cableado, etc. Inclusive, esta información digital se transmitía sobre los mismos canales (y por ende, frecuencias de radio) ya existentes y en uso por la red analógica. La gran diferencia es que con la tecnología digital se hizo posible hacer Multiplexion, tal que en un canal antes destinado a transmitir una sola conversación a la vez se hizo posible transmitir varias conversaciones de manera simultánea, incrementando así la capacidad operativa y el número de usuarios que podían hacer uso de la red en una misma celda en un momento dado.
Tercera generacion3G nace de la necesidad de aumentar la capacidad de transmisión de datos para poder ofrecer servicios como la conexión a Internet desde el móvil, la videoconferencia, la televisión y la descarga de archivos. En este momento el desarrollo tecnológico ya posibilita un sistema totalmente nuevo: UMTS (Universal Mobile Telecommunications System).
UMTS utiliza la tecnología CDMA, lo cual le hace alcanzar velocidades realmente elevadas (de 144 kbit/s hasta 7.2 Mbit/s, según las condiciones del terreno).
UMTS ha sido un éxito total en el campo tecnológico pero no ha triunfado excesivamente en el aspecto comercial. Se esperaba que fuera un bombazo de ventas como GSM pero realmente no ha resultado ser así ya que, según parece, la mayoría de usuarios tiene bastante con la transmisión de voz y la transferencia de datos por GPRS y EDGEcuarta generacionLa generación 4, o 4G es la evolución tecnológica que ofrece al usuario de telefonía móvil un mayor ancho de banda que permite, entre muchas otras cosas, la recepción de televisión en Alta Definición.Como ejemplo, podemos citar al concept mobile Nokia Morph.
Hoy en día existe un sistema de este nivel operando con efectividad solo con algunas compañías de EEUU, llamado LTE.
Suscribirse a:
Entradas (Atom)