lunes, 26 de diciembre de 2016

Fibra Óptica


La fibra óptica es un medio de transmisión, empleado habitualmente en redes de datos y telecomunicaciones, consiste en un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir. El haz de luz queda completamente confinado y se propaga por el interior de la fibra con un ángulo de reflexión por encima del ángulo límite de reflexión total, en función de la ley de Snell. La fuente de luz puede provenir de un láser o un diodo led.
Las fibras se utilizan ampliamente en telecomunicaciones, ya que permiten enviar gran cantidad de datos a una gran distancia, con velocidades similares a las de la radio y superiores a las de un cable convencional. Son el medio de transmisión por cable más avanzado, al ser inmune a las interferencias electromagnéticas, y también se utilizan para redes locales donde se necesite aprovechar las ventajas de la fibra óptica sobre otros medios de transmisión. También suele usarse en algunos estilos de árboles de navidad.
Historia

Los antiguos griegos usaban espejos para transmitir información, de modo rudimentario, usando luz solar. En 1792, Claude Chappe diseñó un sistema de telegrafía óptica, que, mediante el uso de un código, torres y espejos distribuidos a lo largo de los 200 km que separan a Lille de París, conseguía transmitir un mensaje en tan sólo 16 minutos.
Aunque en 1820 eran conocidas las ecuaciones por las que se rige la captura de la luz dentro de una placa de cristal lisa, no sería sino 90 años más tarde cuando estas ecuaciones se aplicaron hacia los llamados cables de vidrio gracias a los trabajos de los físicos Demetrius Hondros y Peter Debye en 1910.
El confinamiento de la luz por refracción, el principio que posibilita la fibra óptica, fue demostrado por Daniel Colladon y Jacques Babinet en París en los comienzos de la década de 1840. El físico irlandés John Tyndall descubrió que la luz podía viajar dentro del agua, curvándose por reflexión interna, y en 1870 presentó sus estudios ante los miembros de la Real Sociedad. A partir de este principio se llevaron a cabo una serie de estudios, en los que se demostró el potencial del cristal como medio eficaz de transmisión a larga distancia. Además, se desarrollaron una serie de aplicaciones basadas en dicho principio para iluminar corrientes de agua en fuentes públicas. Más tarde, el ingeniero escocés John Logie Baird registró patentes que describían la utilización de bastones sólidos de vidrio en la transmisión de luz, para su empleo en su sistema electromecánico de televisión en color. Sin embargo, las técnicas y los materiales usados no permitían la transmisión de la luz con buen rendimiento. Las pérdidas de señal óptica eran grandes y no había dispositivos de acoplamiento óptico.
Solamente en 1950 las fibras ópticas comenzaron a interesar a los investigadores, con muchas aplicaciones prácticas que estaban siendo desarrolladas. En 1952, el físico Narinder Singh Kapany, apoyándose en los estudios de John Tyndall, realizó experimentos que condujeron a la invención de la fibra óptica.
Uno de los primeros usos de la fibra óptica fue emplear un haz de fibras para la transmisión de imágenes, que se usó en el endoscopio. Usando la fibra óptica, se consiguió un endoscopio semiflexible, el cual fue patentado por la Universidad de Míchigan en 1956. En este invento se usaron unas nuevas fibras forradas con un material de bajo índice de refracción, ya que antes se impregnaban con aceites o ceras. En esta misma época, se empezaron a utilizar filamentos delgados como el cabello que transportaban luz a distancias cortas, tanto en la industria como en la medicina, de forma que la luz podía llegar a lugares que de otra forma serían inaccesibles. El único problema era que esta luz perdía hasta el 99 % de su intensidad al atravesar distancias de hasta 9 metros de fibra.
Charles K. Kao, en su tesis doctoral de 1956, estimó que las máximas pérdidas que debería tener la fibra óptica, para que resultara práctica en enlaces de comunicaciones, eran de 20 decibelios por kilómetro.
En 1966, en un comunicado dirigido a la Asociación Británica para el Avance de la Ciencia, los investigadores Charles K. Kao y George Hockham, de los laboratorios Standard Telecommunications, en Inglaterra, afirmaron que se podía disponer de fibras de una transparencia mayor y propusieron el uso de fibras de vidrio y de luz, en lugar de electricidad y conductores metálicos, en la transmisión de mensajes telefónicos. La obtención de tales fibras exigió grandes esfuerzos de los investigadores, ya que las fibras hasta entonces presentaban pérdidas del orden de 100 dB/km, además de una banda pasante estrecha y una enorme fragilidad mecánica. Este estudio constituyó la base para reducir las pérdidas de las señales ópticas que hasta el momento eran muy significativas y no permitían el aprovechamiento de esta tecnología. En un artículo teórico, demostraron que las grandes pérdidas características de las fibras existentes se debían a impurezas diminutas intrínsecas del cristal. Como resultado de este estudio fueron fabricadas nuevas fibras con atenuación de 20 dB/km y una banda pasante de 1 GHz para un largo de 1 km, con la perspectiva de sustituir los cables coaxiales. La utilización de fibras de 100 µm de diámetro, envueltas en fibras de nylon resistente, permitirían la construcción de hilos tan fuertes que no podían romperse con las manos. Hoy ya existen fibras ópticas con atenuaciones tan pequeñas de hasta 1 dB/km, lo que es muchísimo menor a las pérdidas de un cable coaxial.
En 1970, los investigadores Robert Maurer, Donald Keck, Peter Schultz, además de Frank Zimar que trabajaban para Corning Glass, fabricaron la primera fibra óptica aplicando impurezas de titanio en sílice, con cientos de metros de largo con la claridad cristalina que Kao y Hockman habían propuesto, aunque las pérdidas eran de 17 dB/km.3 4 Durante esta década, las técnicas de fabricación se mejoraron, consiguiendo pérdidas de tan solo 0,5 dB/km.
Poco después, los físicos Morton B. Panish e Izuo Hayashi, de los Laboratorios Bell, mostraron un láser de semiconductores que podía funcionar continuamente a temperatura ambiente. Además, John MacChesney y sus colaboradores, también de los laboratorios Bell, desarrollaron independientemente métodos de preparación de fibras. Todas estas actividades marcaron un punto decisivo ya que ahora, existían los medios para llevar las comunicaciones de fibra óptica fuera de los laboratorios, al campo de la ingeniería habitual. Durante la siguiente década, a medida que continuaban las investigaciones, las fibras ópticas mejoraron constantemente su transparencia.
El 22 de abril de 1977, General Telephone and Electronics envió la primera transmisión telefónica a través de fibra óptica, en 6 Mbit/s, en Long Beach, California.
Un dispositivo que permitió el uso de la fibra óptica en conexiones interurbanas, reduciendo su coste, fue el amplificador óptico inventado por David N. Payne, de la Universidad de Southampton, y por Emmanuel Desurvire en los Laboratorios Bell. A ambos se les concedió la Medalla Benjamin Franklin en 1988.
En 1980, las mejores fibras eran tan transparentes que una señal podía atravesar 240 kilómetros de fibra antes de debilitarse hasta ser indetectable. Pero las fibras ópticas con este grado de transparencia no se podían fabricar usando métodos tradicionales. Otro avance se produjo cuando los investigadores se dieron cuenta de que el cristal de sílice puro, sin ninguna impureza de metal que absorbiese luz, solamente se podía fabricar directamente a partir de componentes de vapor, evitando de esta forma la contaminación que inevitablemente resultaba del uso convencional de los crisoles de fundición. La tecnología en desarrollo se basaba principalmente en el conocimiento de la termodinámica química, una ciencia perfeccionada por tres generaciones de químicos desde su adopción original por parte de Willard Gibbs, en el siglo XIX.
También en 1980, AT&T presentó a la Comisión Federal de Comunicaciones de los Estados Unidos un proyecto de un sistema de 978 kilómetros que conectaría las principales ciudades del trayecto de Boston a Washington D. C. Cuatro años después, cuando el sistema comenzó a funcionar, su cable, de menos de 25 centímetros de diámetro, proporcionaba 80 000 canales de voz para conversaciones telefónicas simultáneas. Para entonces, la longitud total de los cables de fibra únicamente en los Estados Unidos alcanzaba 400 000 kilómetros.
El primer enlace transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988, usando un cristal tan transparente que los amplificadores para regenerar las señales débiles se podían colocar a distancias de más de 64 kilómetros. Tres años después, otro cable transatlántico duplicó la capacidad del primero. Desde entonces, se ha empleado fibra óptica en multitud de enlaces transoceánicos o entre ciudades, y paulatinamente se va extendiendo su uso desde las redes troncales de las operadoras hacia los usuarios finales.
Hoy en día, debido a sus mínimas pérdidas de señal y a sus óptimas propiedades de ancho de banda, además de peso y tamaño reducidos la fibra óptica puede ser usada a distancias más largas que el cable de cobre.

¿Cómo serán las tecnologías del futuro?


Internet y los dispositivos a los cuales accedemos a ella están cambiando de una manera increíble y a una velocidad que nunca hubiéramos imaginado. Si hace 20 años a una persona le decían que estaría interconectado con cualquier persona del mundo con un aparato que llevaría en los bolsillos que mediría unos pocos centímetros y que sería utilizado además para chequear correos que dejarían de escribirse en papel para empezar a hacerlo en una pantalla se nos habrían reído en la cara y, probablemente, hubieran tenido la intención de meternos en un manicomio.
Eso lo que dije más arriba es lo más normal del mundo, la mayoría de los usuarios de telefonía celular tienen un smartphone, algunos tabletas y todos se conectan a Internet a diario y me arriesgo a decir que, muchos de ellos, se comunican más a través del ordenador que por otros medios ya en desuso como el teléfono. Y digo esto porque es exactamente lo que me sucede a mí. Es mucho más probable que responda un mail, arregle una salida con amigos a través de Facebook o reciba avisos a través de mensajes directos de Twitter que haga una llamada. Eso sin contar WhatsApp que se convirtió en la manera predilecta para enviar SMSs.
Qué pasará en el futuro con la tecnología no lo sabe absolutamente nadie a ciencia cierta, pero podemos imaginarlo y, siguiendo un poco el camino que está tomando actualmente la evolución tecnológica, ver dónde estará en el futuro no tan lejano.

Ustedes me pueden decir qué opinan en los comentarios y dónde piensan que migrará la cosa, pero particularmente creo que la red y tecnología en general dejará de tener que ver con un dispositivo en particular. Sí tendremos aparatos, pero la red estará en todos lados y nuestro perfil sincronizará en uno solo. Desde cada rincón del planeta acceder a la red será posible.
Tendremos la posibilidad de interactuar de la manera que nos plazca. Podremos utilizar un teclado como ahora, podremos tocar la pantalla o mover la flecha con un ratón o hablarle coloquialmente como ya empezamos a hacer hace tiempo con Siri y, más tarde, con el resto de los desarrollos que fueron lanzándose o incluso dándole ordenes con nuestro cerebro. Nuestros relojes tendrán internet, nuestros teléfonos, nuestros autos, nuestras heladeras, hornos, calefacción, aire acondicionado, televisión y todo lo que se conecte a la corriente eléctrica. Si es bueno o malo, es imposible de saberlo ahora, pero poco a poco ya estamos viendo como estos productos van apareciendo y, muy lentamente, empiezan a formar parte de la cultura cotidiana de los, en principio early adopters, y más tarde los usuarios hogareños.
La personalización se mejorará todavía más. Las compañías están notando que uno de los detalles más importantes en la actualidad es hacer que Internet y los diferentes servicios -lo estamos viendo más que nada en aplicaciones de noticias, sobre todo- se adapten al usuario y no el usuario a ellos. Dentro de algunos años los algoritmos verán nuevos e importantes desarrollos y la tecnología nos mostrará solo lo que nosotros queremos ver. Nada de toparnos con un producto que no nos interese, una página que no vamos a visitar o una noticia que dejaríamos en el titular.
La conexión entre nosotros será todavía más grande y la voz, como está sucediendo en la actualidad, comenzará a sonar algo de un mundo pasado. Con el avance de la tecnología podremos saber lo que está sintiendo el otro o incluso también sentirlo. Suena a película de ciencia ficción, pero también era ficción hablar de nuestra actualidad a alguien de los 60s.

En los últimos tiempos vimos como diferentes gobiernos están tratando de controlar la red. Lo mejor que puede suceder es que, entre todos y como se viene haciendo hace tiempo, logremos hacer que esto no pase y que la red siga siendo libre como lo es ahora. Si todo sigue como ahora el futuro será prominente y las tecnologías podrán evolucionar sin tener que girar su curso porque diferentes empresas lo decidan.

domingo, 25 de diciembre de 2016

Bioinformática


La bioinformática, según una de sus definiciones más sencillas, es la aplicación de tecnologías computacionales a la gestión y análisis de datos biológicos. Los términos bioinformáticabiología computacional y, en ocasiones, biocomputación, son utilizados en muchas situaciones como sinónimos, y hacen referencia a campos de estudios interdisciplinares muy vinculados que requieren el uso o el desarrollo de diferentes técnicas estudiadas universitariamente en la Ingeniería Informática como ciencia aplicada de la disciplina informática. Entre estas pueden destacarse las siguientes: matemática aplicada, estadística, ciencias de la computación,inteligencia artificial,química y bioquímica con las que el Ingeniero Informático soluciona problemas al analizar datos, o simular sistemas o mecanismos, todos ellos de índole biológica, y usualmente (pero no de forma exclusiva) en el nivel molecular. El núcleo principal de estas técnicas se encuentra en la utilización de recursos computacionales para solucionar o investigar problemas sobre escalas de tal magnitud que sobrepasan el discernimiento humano. La investigación en biología computacional se solapa a menudo con la biología de sistemas.
Los principales esfuerzos de investigación en estos campos incluyen el alineamiento de secuencias, la predicción de genes, montaje del genoma, alineamiento estructural de proteínas, predicción de estructura de proteínas, predicción de la expresión génica, interacciones proteína-proteína, y modelado de la evolución.
Una constante en proyectos de bioinformática y biología computacional es el uso de herramientas matemáticas para extraer información útil de datos producidos por técnicas biológicas de alta productividad, como la secuenciación del genoma. En particular, el montaje o ensamblado de secuencias genómicas de alta calidad desde fragmentos obtenidos tras la secuenciación del ADN a gran escala es un área de alto interés. Otros objetivos incluyen el estudio de la regulación genética para interpretar perfiles de expresión génica utilizando datos de chips de ADN o espectrometría de masas.

Conceptos  y alcance

Como se ha avanzado en la introducción, los términos bioinformática, biología computacional y biocomputación son utilizados a menudo como sinónimos, apareciendo con frecuencia en la literatura básica de forma indiferenciada en sus usos comunes. Sin embargo, hay conformadas áreas de aplicación propias de cada término. El NIH (National Institutes of Health, Institutos Nacionales de la Salud de los Estados Unidos), por ejemplo, aún reconociendo previamente que ninguna definición podría eliminar completamente el solapamiento entre actividades de las diferentes técnicas, define explícitamente los términos bioinformática y biología computacional:
  • Bioinformática es la investigación, desarrollo o aplicación de herramientas computacionales y aproximaciones para la expansión del uso de datos biológicos, médicos, conductuales o de salud, incluyendo aquellas herramientas que sirvan para adquirir, almacenar, organizar, analizar o visualizar tales datos.
  • Biología computacional sería el desarrollo y aplicación de métodos teóricos y de análisis de datos, modelado matemático y técnicas de simulación computacional al estudio de sistemas biológicos, conductuales y sociales.
De esta forma, la bioinformática tendría más que ver con la información, mientras que la biología computacional lo haría con las hipótesis. Por otra parte, el término biocomputación suele enmarcarse en las actuales investigaciones con biocomputadores y, por ejemplo, T. Kaminuma lo define de la siguiente forma:
  • Biocomputación es la construcción y uso de computadores que contienen componentes biológicos o funcionan como organismos vivos.
Aparte de las definiciones formales de organismos o instituciones de referencia, los manuales de esta materia aportan sus propias definiciones operativas, lógicamente vinculadas en mayor o menor medida con las ya vistas. Como ejemplo, David W. Mount, en su difundido texto sobre bioinformática, precisa que:
…la bioinformática se centra más en el desarrollo de herramientas prácticas para la gestión de datos y el análisis (por ejemplo, la presentación de información genómica y análisis secuencial), pero con menor énfasis en la eficiencia y en la precisión.
Por otra parte, y según el mismo autor:
…la biología computacional generalmente se relaciona con el desarrollo de algoritmos nuevos y eficientes, que se puede demostrar funcionan sobre un problema difícil, tales como el alineamiento múltiple de secuencias o el montaje (o ensamblado) de fragmentos de genoma.
Por último, se encuentra en ocasiones una categorización explícita de estos conceptos según la cual la bioinformática es una subcategoría de la biología computacional. Por ejemplo, la bióloga Cynthia Gibas anota que:
La bioinformática es la ciencia del uso de la información para entender la biología. (...) Hablando estrictamente, la bioinformática es un subconjunto del campo mayor de la biología computacional, (siendo esta última) la aplicación de técnicas analíticas cuantitativas en el modelado de sistemas biológicos.
No obstante, y refiriéndose a su propio texto (Developing Bioinformatics Computer Skills, desarrollo de habilidades computacionales para bioinformática), enseguida pasa a aclarar que:
...pasaremos de bioinformática a biología computacional y viceversa. Las distinciones entre las dos no son importantes para nuestro propósito aquí.
En muchas ocasiones, por lo tanto, los términos serán intercambiables y, salvo en contextos de cierta especialización, el significado último se mantendrá claro utilizando cualquiera de ellos.

Cómo instalar y desinstalar programas en una PC

Instalar y desinstalar programas de una PC es generalmente un proceso fácil usando Microsoft Windows 7. Sin embargo, hay suficientes excepciones a esta regla que nunca se debe dar por sentado que un programa se puede instalar desinstalar sin problemas. Esto puede ser el caso de software que fue diseñado antes de que Windows 7 fue publicado o para los programas que utilizan sus aplicaciones de desinstalación. Lee atentamente las instrucciones al instalar cualquier programa y ve lo que está sucediendo en la pantalla mientras se está instalando. Antes de desinstalar un programa, echa un vistazo a la carpeta de la aplicación y lee toda la documentación que viene con el software para buscar los requisitos especiales.
1
Inicia sesión en tu equipo con una cuenta administrativa.
2
Inserta el DVD o CD con el programa si se trataba de uno. Muchos discos iniciarán automáticamente un cuadro de diálogo con instrucciones sobre cómo instalar el software. Si un cuadro de diálogo no aparece, examina el contenido del disco, específicamente para un "Setup.exe" o archivo "Install.exe". Haz doble clic en este archivo para instalar el software.
3
Ve a la página Web que contiene un link para descargar el software si está disponible en línea. Haz clic en el enlace de descarga. Un cuadro de diálogo se abre. Selecciona "Abrir" o "Ejecutar" para instalar el programa inmediatamente o "Guardar" para descargar el archivo para que se pueda poner en marcha más adelante. Guarda el archivo si no está seguro de la fuente del programa, y luego escanéalo con un programa anti-virus. Haz doble clic en el archivo para instalar el programa en tu ordenador.
4
Instala un programa desde una red si está disponible allí. Este puede ser el caso, por ejemplo, para el software utilizado por tu empresa. Haz clic en el botón Inicio de Windows y haz clic en "Panel de control". Selecciona "Programas", luego "Programas y características". Selecciona "Instalar un programa desde la red" en el menú de la izquierda. Haz clic en el programa que deseas instalar y haz clic en "Instalar".
5
Sigue las instrucciones en pantalla para instalar el software en tu ordenador. Ingresa tu contraseña de administrador si se te pide. Toma nota de las instrucciones especiales para desinstalar el programa más adelante ya que a menudo se muestran en la pantalla durante el proceso de instalación. No elimines toda la documentación que viene con el programa sin haberlo leído, ya que usualmente incluyen instrucciones de desinstalación también.
6
Inicia sesión en tu equipo con una cuenta administrativa. Asegúrate de que el programa que deseas desinstalar no se está ejecutando. Desactiva cualquier software antivirus que pueda escanear el ordenador o espera a que termine antes de continuar. El análisis de archivos del programa en busca de virus puede interrumpir el proceso de desinstalación.
7
Haz clic en el botón Inicio y selecciona "Todos los programas". Abre la carpeta que contiene el programa que deseas desinstalar. Busca en la carpeta un archivo "Desinstalar". Haz doble clic en el archivo para desinstalar el programa.
8
Busca instrucciones especiales en la carpeta del programa como un archivo de texto "Léame" si no hay un archivo "Desinstalar" en la carpeta del programa. También puedes visitar la página web de la aplicación para obtener instrucciones sobre cómo desinstalar el programa. Sigue estas instrucciones para desinstalar el programa. Si no existen instrucciones especiales procede al paso siguiente.
9
Haz clic en el botón Inicio de Windows, si no hay instrucciones especiales para desinstalar el programa. Haz clic en el "Panel de control". Selecciona "Programas", luego "Programas y características". Haz clic en el programa que deseas eliminar y selecciona "Desinstalar". Escribe tu contraseña de administrador si se te pide.
10
Desinstala manualmente un programa y borra los archivos sólo como último recurso, en el caso de que estos pasos no remuevan exitosamente el programa. Respalda tus archivos y crea un sistema de punto de restauración antes de eliminar archivos. Para crear un punto de restauración, haz clic en el botón Inicio de Windows escribe "Restaurar sistema" en el campo de búsqueda y presiona "Enter". El Asistente del sistema para Restaurar te guiará en el proceso. Esto incluye los archivos de datos existentes que se utilizan con el programa que no se utiliza con otros programas. A menudo se puede identificar los archivos asociados con un programa por su extensión. Por ejemplo, Adobe Illustrator utiliza los archivos con extensión ".ai".

Banda ancha


En telecomunicaciones, se conoce como banda ancha a la red (de cualquier tipo) que tiene una elevada capacidad para transportar información que incide en la velocidad de transmisión de esta. Así entonces, es la transmisión de datos simétricos por la cual se envían simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de transmisión efectiva. En ingeniería de red de computadoras este término se utiliza también para los métodos en donde dos o más señales comparten un medio de transmisión. Así se utilizan dos o más canales de datos simultáneos en una única conexión, lo que se denomina multiplexación (ver sección más abajo).
Algunas de las variantes de los servicios de fibra hasta la casa (Fiber To The Home) son de banda ancha. Los routers que operan con velocidades mayores a 100 Mbit/s también son banda ancha, pues obtienen velocidades de transmisión simétricas.
El concepto de banda ancha ha evolucionado con los años. La velocidad que proporcionaba la RDSI con 128 Kb/s dio paso al SDSL con una velocidad de 256 Kb/s. Posteriormente han surgido versiones más modernas y desarrolladas de este último, llegando a alcanzar desde la velocidad de 512 Kb/s hasta los 25 Mb/s simétricos en la actualidad.
Velocidad de banda ancha

La banda ancha no es un concepto estático, toda vez que las velocidades de acceso a Internet se aumentan constantemente. Las velocidades se miden por bits por segundo, por ejemplo, kilobits por segundo (kbit/s) o megabits por segundo (Mbit/s). La velocidad mínima para considerarse banda ancha varía entre los países e, incluso, dentro de un país la autoridad puede considerar como banda ancha un valor de velocidad distinto de aquel que el operador estima como banda ancha. Se ha propuesto que una manera para determinar la existencia de banda ancha es aquella basada en los servicios a los que se puede tener acceso (p. ej., rápida descarga de archivos de Internet, calidad de audio equivalente a un CD, servicios de voz interactivos). La amplia disponibilidad de banda ancha se considera un factor para la innovación, la productividad, el crecimiento económico y la inversión extranjera.
Al concepto de banda ancha hay que atribuirle otras características, además de la velocidad, como son la interactividad, digitalización y conexión o capacidad de acceso (función primordial de la banda ancha).
Patterson ya hablaba de que la conexión de banda ancha depende de la red de comunicaciones, de las prestaciones del servicio. En su libro Latency lags bandwidth. Communications of the ACM escrito en 2004 cuenta que el retardo es un aspecto crítico para las prestaciones de un sistema real.
Multiplexación

Las comunicaciones pueden utilizar distintos canales físicos simultáneamente; es decir multiplexar para tener acceso múltiple. Tales canales pueden distinguirse uno de otro por estar separados en tiempo (multiplexación por división de tiempo o TDM), frecuencia de portadora (multiplexación por división de frecuencia, FDM o multiplexación por división de longitud de onda, WDM), o por código (multiplexación por división de código, CDMA). Cada canal que toma parte en la multiplexación es por definición de banda estrecha (pues no está utilizando todo el ancho de banda del medio).

sábado, 24 de diciembre de 2016

Los 10 avances tecnológicos de la última década



La revista TOP 10, lo que no sabías, presenta una interesante clasificación de los más completos avances tecnológicos de los últimos años. Son tecnologías que hace 30 años eran inconcebibles, pero que hoy en día pueden considerarse básicas para la mayoría de personas. Este es el listado que hemos ajustado:
Google   

EL buscador de Internet más utilizado y una de las marcas más conocidas a nivel mundial. Google además se está posicionando en la mayoría de los sectores de la industria tecnológica (Android, Chrome) y regala múltiples servicios. El logro de dar a los usuarios un correo ilimitado lo ha masificado y la gente lo agradece. Permite además difundir información libre no estando ligado a ningún régimen, país, religión o partido político.

La Telefonía Móvil  

Su impacto en la comunicación es enorme. En muchos países hay más teléfonos móviles que número de habitantes. En esta última década se masificó exponencialmente. De ser un artículo de lujo y oneroso, se ha convertido en una necesidad. En los últimos cinco años ha mejorado sustancialmente servicios y aplicaciones.



Internet de banda ancha   

La banda ancha transformó el Internet al globalizar la rapidez y la capacidad de la comunicación, que sigue creciendo. Ha permitido democratización de los medios, aunque con riesgos e inconsistencias, que deberán corregirse. El acceso actual a Internet aun tiene deficiencias de cobertura por costos y logística, pero su crecimiento e impacto son impresionantes. Aunque democratizó y masificó la comunicación, redujo la calidad y aumentó los riesgos.

Wi-Fi    

Una tecnología complementaria a las anteriores que las optimiza, buscando acabar con los cables. Un avance formidable en comodidad y agilidad.




iPod Vs. iPad    

Apple dominó el mercado en el 2001 con el primer reproductor que combinaría un diseño atractivo con facilidad de uso y buena capacidad con el iPod marcando el inicio de la era de gloria para el MP3. El iPad, la tableta de Apple, ha provocado un auténtico terremoto en el sector de los medios. Hoy gran parte de los diarios del mundo han migrado a este sistema.

iPhone   

Es el teléfono móvil más impactante, por diseño, estilo y utilidad, marcando diferencias desde hace tres años. El aparato en sí cambió la comunicación móvil y se convirtió en un ejemplo a seguir por todos los fabricantes. El iPhone que tiene una capacidad de innovación fantástica, es el referente para los más sofisticados teléfonos móviles del mundo.



Redes Sociales   

(Facebook, MySpace, Twitter): Sin duda han arrasado en usuarios formando gigantescas comunidades virtuales. Sin embargo han aparecido muchas contradicciones, con variados problemas de uso, especialmente entre menores de edad.



   

                                                                                                                                                                                                                                                                                                                                                     Pantallas planas                                                                                                Actualmente la tecnología predominante es LCD. Pero ya hay alternativas de mayor calidad como las pantallas LED u OLED. Y está llegando la tecnología en 3 dimensiones.                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               

Vídeo de Alta Definición – Consolas de Videojuegos   

Si bien hacen parte de un público muy especializado y segmentado, su impacto también es gigante como innovación tecnológica. El mundo de las videoconsolas es caso aparte, ya que la industria del videojuego suele soportar mejor la crisis económica y siguen vendiéndose millones de unidades. Play Station, PSP, Nintendo, Wii, Xbox, Game Cube….siguen en lucha constante por hacerse con el mercado.


  

                                                                                                                                                                                                                                                                                    Navegación GPS 
Uno de los avances tecnológicos de última generación y más vendidos de los últimos años. Ha facilitado el mundo de las comunicaciones y transportes. Facilita la orientación y ubicación planetaria.

La PC más rápida del Mundo


No lo tenían planeado. El sistema, de hecho, estaba proyectado para estar listo en 2015. Pero los chinos no solo se adelantaron dos años en desarrollar su nueva supercomputadora, sino que sobrepasaron a sus viejos contrincantes en la competencia por el computador más rápido del mundo.


Mientras que una computadora ordinaria puede realizar alrededor de 100 millones de cálculos en un segundo, ésta hace 33.860 billones por segundo.
La Tianhe-2, desarrollada por la Universidad de Tecnología de Defensa china, que es administrada por el gobierno, lideró la lista de las 500 computadoras más rápidas del mundo, publicada dos veces al año por un grupo de investigadores internacionales.
China ya ocupó ese primer lugar entre noviembre de 2010 y junio de 2011.

De acuerdo a la lista, Estados Unidos tiene la segunda y tercera supercomputadoras más rápidas del mundo, llamadas Sequoia y Titán respectivamente, mientras que la K japonesa es la cuarta.
                                            
                                                             SEQUOIA




                                                                        TITÁN



La última versión de la lista -que es supervisada por Hans Meuer, profesor de ciencias informáticas en la Universidad de Mannheim- fue publicada para coincidir con la Conferencia Internacional de Supercomputación en Leipzig, Alemania.

Qué hace

El nombre de la computadora, Tianhe-2, quiere decir Milky Way-2, y su sistema opera a 33,86 petaflops por segundo, lo que equivale a 33.860 billones de cálculos por segundo.
Eso en promedio, porque en teoría la máquina puede operar hasta a 54,9 petaflops por segundo.
El proyecto fue patrocinado por el Programa 863 de Alta Tecnología del gobierno chino, un esfuerzo para que sus industrias de alta tecnología sean más competitivas y menos dependientes de los rivales extranjeros.

Se ha dicho que China tiene la intención de instalar el equipo en el Centro de Supercomputación Nacional de Guangzhou, cuya sede es en provincia suroriental de Guangdong, donde se ofrece como un recurso de "investigación y educación" para el sur de China.
El sistema tiene la capacidad de monitorear enormes cantidades de datos. Con él, los modelos climáticos atmosféricos pueden tener en cuenta el efecto del comportamiento del océano, explicó Raj Hazra, líder del departamento de alta computación de Intel, al diario The New York Times.
Aunque la supercomputadora utiliza chips Ivy Bridge y Xeon Phi de Intel para llevar a cabo sus cálculos, Jack Dongarra, de la Universidad de Tennessee, señala que muchas de sus características fueron desarrolladas en China y son únicas.
Por medio de la Tianhe-2 los geólogos pueden examinar no sólo las formaciones rocosas, sino el comportamiento de los gases y los líquidos dentro de las diferentes rocas, añadió Hazra.
Otras de sus características incluyen:
  • Utiliza un total de 12,3 millones de procesadores.
  • Tiene una red de interconexión a la medida, que enruta los datos a través del sistema.
  • Posee 4.096 CPUs (unidades centrales de procesamiento) FT-1500 Galaxy diseñados para manejar aplicaciones específicas de predicción del tiempo y de defensa nacional.
  • Usa un sistema operativo Kylin -llamado así en referencia a una bestia mítica conocida como el "unicornio chino"- que sirve como una opción de alta seguridad para los usuarios del gobierno, defensa, energía, aeroespacial y otros sectores críticos.