martes, 31 de mayo de 2022

Mexicanos consumen más ancho de banda desde WiFi que desde datos móviles

Desde la Reforma en Telecomunicaciones, los usuarios encontraron mejores condiciones en la oferta y acceso a ambas alternativas tecnológicas de conectividad, explicó la consultora The CIU.

 


En México, el consumo de internet se ha convertido en una necesidad básica para trabajar, comunicarse entre personas o para disfrutar contenidos multimedia; por lo que en la actualidad 89 por ciento de los consumidores mexicanos se conecta a una red WiFi y el 11 por ciento a través de una red móvil. 

De acuerdo con análisis de la consultora The CIU, en promedio, el consumo de datos de Banda Ancha Fija (BAF) desde teléfonos inteligentes es de 40.23 GB; en tanto, el consumo de Banda Ancha Móvil (BAM) es de 4.94 GB, en promedio mensual. 

Desde la puesta en marcha de la Reforma en Telecomunicaciones del 2013, los internautas encontraron mejores condiciones en la oferta y acceso a ambas alternativas tecnológicas de conectividad, explicó el organismo. 

Con los cambios a la ley, el consumidor mexicano pudo experimentar el abaratamiento de servicios y dispositivos, de la creciente cobertura y capacidad de las redes de telecomunicaciones, así como derivado del desarrollo y aprovechamiento de aplicaciones y herramientas disponibles en internet.

Con lo anterior, al cierre de 2021 se contabilizan un total de 24.1 millones de accesos a la BAF y 105.8 millones a la BAM en México. Esto representa que, si bien existen más accesos a través de dispositivos móviles, es a través de las redes fijas donde se consume una mayor cantidad de datos.

Durante el último lustro (2017-2021), el ritmo de crecimiento en la contratación residencial y de negocios de la BAF superó a aquel de la BAM, al registrar una tasa acumulada de 48.8 y 38.5 por ciento, respectivamente. No obstante, durante el primer año de C-19 (2020), como resulta lógico, se aceleró más la contratación del servicio de BAF (tasa anual de 13.1 por ciento), ritmo 2.6 veces superior al de BAM (5.1 por ciento). Ya en 2021, convergieron en alguna proporción sus tasas anuales de crecimiento, a 7.7 por ciento la BAF y 5.3 por ciento la BAM. 

Esta evolución favorable de la BAF resulta del efecto combinado del confinamiento pandémico, así como de sus vastas capacidades en términos de velocidad y estabilidad, percibidas por los usuarios.



Fuente: Milenio

El primer teletransporte en red abre el camino al internet cuántico

Un equipo holandés consigue por primera vez intercambiar qubits entre nodos distantes y sin conexión directa entre emisor y receptor.

Investigadores de QuTech trabajan en uno de los nodos de la red cuántica, donde los
espejos y filtros guían los rayos láser hacia el chip de diamante.
MARIEKE DE LORIJN

La computación cuántica avanza con pequeños pasos de gigante. Pequeños porque los logros que se alcanzan suponen rupturas singulares de las limitaciones. Pero gigantescos porque cada zancada abre un mundo de posibilidades infinitas. Es el caso de la investigación liderada por Ronald Hanson, físico del laboratorio QuTech, de la Universidad de Delft (Holanda), quien ha logrado, según publica este miércoles Nature, teletransportar información cuántica a través de una red rudimentaria sin conexión directa entre emisor y receptor. El teletransporte básico ya se había conseguido (el equipo de Hanson y otros ya lo han demostrado). Pero solo entre dos puntos, denominados Alice y Bob, o entre nodos adyacentes. Ahora, a esta pareja se une Charlie a distancia. Los tres forman la primera red que, aunque rudimentaria, permite pensar en un internet cuántico, con posibilidades infinitas de computación y de observar un mundo hasta ahora desconocido.

 

Roland Hanson detalla la relevancia de esta red primigenia cuántica: “Para la comunicación cuántica, nuestro trabajo muestra cómo se puede usar la teletransportación en un entorno de red real, con nodos que no tienen conexión directa. En la futura internet cuántica, dicha teletransportación será la principal forma de transferir información cuántica a grandes distancias. Nuestra red puede ser vista como una computadora cuántica modular (donde los nodos son los módulos); nuestro trabajo demuestra que los nodos pueden intercambiar información cuántica, aunque no estén en un solo chip”.

 

Para comprender el avance del equipo de Hanson hay que partir de logros previos en los que ellos mismos han participado junto a otros grandes investigadores de esta ciencia. El primero fue la demostración de que la teletransportación es posible en el mundo cuántico. Asher Peres (Francia 1934, Israel 2005) sentó las bases en Physical Review Letters en 1993. Entonces, un periodista le preguntó: “En el caso de teletransportar una persona, ¿iría antes el cuerpo que el alma?” El físico respondió: “El cuerpo no, solo el alma”.

 

Esta anécdota es significativa para comprender el teletransporte cuántico, donde no se transfiere materia a través de un medio sino la información que confiere sus propiedades. Según explica Hanson: “La característica clave de la teletransportación cuántica es que la información cuántica en sí misma es realmente teletransportada: no viaja a través del espacio o a través de la fibra. El par entrelazado (entangled, en inglés) de qubits, que es el recurso para ejecutar la teletransportación (el “teletransportador”), se prepara mediante el uso de señal a través de fibra”. Otro término para este fenómeno lo acuñó Albert Einstein cuando avanzó esta posibilidad en 1935 junto a Boris Podolsky y Nathan Rosen, en la conocida como paradoja EPR: “Acción fantasmagórica a distancia”.

 

Esquema de la teletransportación publicado en 'Nature'.

 

De esta forma, cuando una partícula es previamente entrelazada con otra, ambas dejan de ser partículas individuales con estados definidos propios y pasan a formar un sistema con una función de onda única. Y cualquier medición que se produzca en Alice, se replica de forma instantánea en Bob. Así lo explica Hanson: “La medición de uno de ellos, inmediatamente, hace que el otro también elija un estado; en cierto sentido, la medición de uno también mide el otro. Esto es muy diferente de la manipulación de los qubits: si rotamos a Alice, no le pasa nada a Bob. Por lo tanto, la acción fantasmal a distancia [que planteó Einstein] solo se refiere a la correlación instantánea en los resultados de la medición. Si otras cosas, además de la medición, también se transfirieran instantáneamente, en realidad sería posible enviar mensajes más rápido que la velocidad de la luz”.

 

El teletransporte se ha ensayado desde hace un cuarto de siglo comenzando por fotones para pasar a átomos y sistemas más complejos. Hace cinco años, Jian-Wei Pan, el investigador referente en este campo que trabaja para la Universidad de Ciencia y Tecnología de China, consiguió con su equipo el teletransporte de fotones desde la Tierra hasta el satélite artificial Micius, en órbita a 1.400 kilómetros de altitud.

 

El propio Jian-Wei Pan explicaba a este periódico cómo estos logros, fundamentales para la computación cuántica, afrontan un “desafío formidable”: la presencia de ruido e imperfecciones. “Necesitamos usar la corrección de errores cuánticos y operaciones tolerantes a fallos para superar el ruido y escalar el sistema”, afirma.

 

Si la presencia de ruido e imperfecciones pueden hacer fracasar la operación cuántica en un ordenador singular en condiciones de laboratorio, el problema se multiplica en una operación en red. Y este ha sido el gran logro del equipo de Hanson: la teletransportación cuántica y eficaz entre nodos no vecinos en una red.

 

En este sentido, el investigador holandés explica: “El ruido y las imperfecciones son un desafío para el procesamiento de la información cuántica. En una red cuántica, el envío de información a través de nodos podría hacerse a través de las fibras intermedias, pero eso haría que la información cuántica estuviera sujeta al ruido y las pérdidas del canal de fibra. En cambio, la teletransportación permite enviar información cuántica entre nodos distantes sin sufrir estas fuentes de ruido. La teletransportación requiere el entrelazamiento como recurso. Bob ayuda a crear ese entrelazamiento entre Alice y Charlie, que no comparten una conexión física directa”.

 

El proceso ha seguido una investigación previa donde Hanson consiguió que funcionara una red entre nodos adyacentes. El desafío fue agregar un tercer nodo y crear un estado entre los tres que mostrara correlaciones cuánticas.

 

En el nuevo experimento, Alice y Charlie carecen de conexión directa entre sí, pero ambos están conectados a Bob. Los procesadores de Alice y Bob preparan el proceso mediante un estado entrelazado entre sus procesadores y Bob lo almacena mientras crea un estado entrelazado con Charlie. “Después de preparar un estado entrelazado entre Alice y Charlie, se crea el estado a teletransportar y luego se ejecuta”, resume Hanson. “Lo que sucede entonces es algo que solo es posible en el mundo cuántico: como resultado de la medición, la información desaparece del lado de Charlie e inmediatamente aparece del lado de Alice”, explica la universidad holandesa.

Un solo NV permite detectar el momento magnético y tiene amplias aplicaciones en la tecnología cuántica. Según García Ripoll, “el NV-center o centro de color también puede hablar con los momentos magnéticos de átomos circundantes y en el experimento [de Hanson] utilizan esto para tener una memoria cuántica: traspasando la información del NV a un spin nuclear cercano (en un isótopo de carbono-13)”. “La información a enviar se puede mantener segura durante mucho tiempo, liberando el NV para que realice la tarea de establecer el entrelazamiento con otro nodo de comunicación”, añade.

 

“Aparte de la calidad del experimento, la demostración de una configuración de comunicación cuántica sofisticada, con tres nodos y unos algoritmos de comunicación también muy elaborados, sienta las bases para extender la idea a montajes escalables de distribución de entrelazamiento y comunicación cuántica muy prometedores”, concluye García Ripoll.


Prematuro, pero relevante

Para Adán Cabello, físico de la Universidad de Sevilla cuya primera medición de una secuencia cuántica fue reconocida como uno de los principales avances de la física, es prematuro hablar de internet cuántico, aunque sí es relevante el experimento como teletransporte a un nuevo nodo distante.

Cabello intenta simplificar el logro para explicarlo: “Tienes un estado cuántico en una ciudad que podría ser Sevilla y quieres mandarlo a otra ciudad, Madrid. Necesitas que entre Sevilla y Madrid haya un estado de qubits entrelazado. Eso es un protocolo de teletransporte estándar. Lo interesante del experimento es que el entrelazamiento solo lo puedes establecer a una distancia determinada. Vamos a decir que, en el ejemplo de las ciudades, es 500 kilómetros. Si quieres enviar qubits de Sevilla a San Sebastián, hay que salvar la limitación de la distancia. Es lo que ha descrito Hanson: ya no es Sevilla-Madrid, es Sevilla-San Sebastián. Han duplicado la distancia”.

 

“Es un primer panorama de lo que podría ser una red”, resume. “Es decir, que ya no es de punto a punto, sino que ya se pueden empezar a implicar más nodos. Pero hablar de internet cuántico es prometer demasiado. No obstante, teletransportar información cuántica es muy útil y va a tener muchas aplicaciones. No hay duda”.

 

En el mismo sentido, los físicos Oliver Slattery y Yong-Su Kim destacan el avance conseguido por Hanson y su equipo como un paso importante, “crítico”, para la creación de un internet cuántico, seguro y de nueva generación. También destacan la importancia de las innovaciones desarrolladas para la consecución del proceso: la preparación, la manipulación y la lectura de los estados cuánticos.

 

No obstante, ambos físicos señalan: “Se necesitarán más mejoras en múltiples características del sistema para permitir múltiples rondas de teletransportación y producir redes cuánticas a gran escala”.


“Los principios necesarios”

Juan José García Ripoll, científico investigador del Instituto de Física Fundamental del Consejo Superior de Investigaciones Científicas (CSIC) y cofundador de Inspiration-Q, considera muy relevante el trabajo de Hanson y su equipo: “Se trata de un experimento muy sofisticado que demuestra todos los principios necesarios para la creación de redes de comunicación cuántica”.

 

Para García Ripoll, que no ha participado en el estudio holandés, “enviar no solo información clásica (bits) sino estados cuánticos precisa de un mecanismo que permita repartir un estado entrelazado entre dos puntos lejanos y una memoria cuántica que permita sostener la información a transmitir mientras se establece ese canal de comunicación basado en el entrelazamiento”.

 

En el experimento de Hanson se utilizan NV-centers, “un tipo de impureza del diamante que actúa”, según explica el científico español, “como un qubit y se puede manipular ópticamente. Este qubit, a través de la emisión de fotones, permite crear el entrelazamiento a larga distancia”. NV-center es un defecto por el que un átomo de carbono en la red cristalina del diamante es reemplazado por un átomo de nitrógeno (N) y un sitio de red adyacente vacante (V).



Fuente: El País

Colombia: ¿Cómo le fue en tecnología a la Registraduría el día de la primera vuelta?

Aunque no se presentaron inconvenientes técnicos, como los que se registraron en las elecciones legislativas, la entidad volvió a cerrar durante la jornada el acceso a otros de los servicios que ofrece. Esta es una solución práctica, pero técnicamente mediocre, argumenta el autor de este análisis.

 

En estas elecciones muchos puestos de votación se uso la identificación biométrica.
Foto: Gustavo Torrijos Zuluaga

Hay una importante diferencia entre las elecciones legislativas y las presidenciales. Éstas últimas son más sencillas y por eso el reto de qué pasa con el software de preconteo y escrutinio todavía está por verse. Poco podemos decir de ello por ahora, salvo que las auditorías (o la falta de) ya sembraron una desconfianza grave y que, una vez más, la mejor garantía que nos ofrece la Registraduría del siglo XXI es la tranquilidad de que nuestros votos siguen siendo de papel y es posible rastrearlos y contarlos uno a uno y sin computadores de por medio.

Pero, en otros temas, ¿qué vimos hoy en materia de tecnología durante estas elecciones? Acá les dejamos un breve análisis de dos puntos que vale la pena revisar:

La página web de la Registraduría Nacional

Con el precedente del colapso de la página web durante las elecciones de cámara y senado –en que la RNEC incluso se inventó un ciberataque que fue rápidamente desmentido por la Fiscalía– para la primera vuelta presidencial la Registraduría volvió a montar una versión recortada de su página web que permite sólo acceder a la información sobre las elecciones.

Esta solución, práctica, pero técnicamente mediocre, facilita hasta cierto punto la información de los votantes, pero ha traído otras consecuencias negativas que también eran predecibles. La primera es que se nos priva de todos los servicios de la página -como la solicitud de citas para sacar cédula- e información que no esté directamente vinculada con las elecciones pero que incluso puede ser clave para este proceso -como la de los resultados históricos de las elecciones-.

El otro es que la versión recortada no sólo genera frustración, sino que puede estar alimentando entre las personas que la consultan la sensación de que la página está caída, al punto que fue necesario que la Registraduría anunciara por sus redes sociales que el supuesto comunicado de prensa al respecto de la caída de la página que circuló por redes sociales en la mañana del día de votación era falso.

Esta es simplemente una expresión más de los problemas que ya hemos visto y descrito durante este año electoral: la precarización de la RNEC como institución por cuenta de sus reiterados errores, improvisaciones y soluciones parciales ha conseguido aumentar las dudas al respecto de su capacidad y minar la confianza en su correcto funcionamiento.

Es decir, ha logrado todo lo contrario de su tarea institucional que es brindar garantías y seguridades para el proceso electoral, abriendo la puerta a reclamaciones de fraude que cada vez tiene menos autoridad institucional para desmentir. Con cada paso en falso se vuelve más fácil inventar y poner a circular noticias falsas y se vuelve más complicado para el RNEC desmentirlas.

Biometría durante la jornada

Una segunda muestra de este fenómeno es el uso de biometría dactilar durante las votaciones. En todas las mesas del territorio nacional se está usando la biometría que ya conocíamos y vienen ensayando: los votantes deben poner su huella dactilar con tinta sobre el papel, además de entregar la cédula y firmar una lista. Pero, además, dicen que en poco más de 20.000 mesas hay ahora lectores biométricos de huella digital electrónicos y conectados a un computador o una tablet.

Su propósito, al menos en papel, es evitar la suplantación, es decir evitar que las personas se hagan pasar por alguien más para votar. Todos los demás mecanismos que se usan tienen el mismo objetivo: los y las jurados en las mesas comparan la foto de la cédula con el rostro de la persona que vota, la firma pretende constatar que la persona sí es ella misma y la huella en tinta es una garantía de lo mismo, que podría usarse posteriormente. En ese sentido, sumar los lectores electrónicos de huella digital no es una garantía adicional de nada, sino una prueba de la tecnología que se justifica como más eficiente para evitar la suplantación.

Sin cuestionar si realmente esta tecnología es la respuesta al problema, en el contexto de nuestro país, lo que sí evidenciamos es quejas por problemas con los lectores.

De lo que se ve en redes sociales de la experiencia es que están repartidos de manera absolutamente arbitraria en el territorio nacional. Hay más o menos un lector por cada cinco mesas de votación y las personas describen que éstos entorpecen el flujo de votantes. Apuntan que con mucha frecuencia no consiguen leer las huellas de las personas. Cuando esto sucede el procedimiento es simplemente ignorar este requisito y proceder como si el lector electrónico simplemente no estuviera ahí. Habría que ver cómo se refleja esto en la evaluación de las pruebas de esta tecnología, pues a juzgar por estas experiencias los lectores no son ni más seguros ni más eficientes.

Tampoco es posible saber qué pasa con los datos que se recogen. Las huellas dactilares son como los demás datos biométricos y esto en la ley colombiana significa dato sensible, que tiene además una gestión especial. De otra parte, según nos dijeron los problemas que el sistema acepta como “excepción” para no usar este lector cuando esté disponible es por dermatitis, mutilación o deformidad, toda información médica, que también es considerada dato sensible de especial protección.

Las preguntas que nos surgen son: ¿qué pasa entonces con las huellas y datos médicos recogidos a lo largo de la jornada en 20.000 lectores por todo el país? ¿Para qué sirven esos 20.000 aparatos? ¿Qué función cumplen realmente? ¿Habrá habido un solo caso en todo el territorio nacional en que esta inclusión de tecnología evitara la suplantación? Todo parece indicar que no.

Entonces, la pregunta final es ¿quién rinde cuentas por este otro ensayo y la ausencia de garantías?


* Coordinador del área de Autonomía y Dignidad, Fundación Karisma


Fuente: El Espectador

miércoles, 25 de mayo de 2022

5G y ciberseguridad

 La ciberseguridad de las redes de telecomunicaciones es una responsabilidad compartida entre operadores móviles, desarrolladores de tecnología, de aplicaciones, plataformas de Internet, organismos internacionales, reguladores, gobiernos y usuarios.

 


La colaboración, la transparencia, el conocimiento compartido y las alianzas privadas son los enfoques más acertados para afrontar los desafíos de seguridad que plantean los agentes maliciosos.

La prensa suele publicar titulares catastrofistas como que aumentarán los riesgos de ciberataques con el uso de 5G. Este tipo de mensajes causa inquietud entre los usuarios, los reguladores y los legisladores que están legítimamente preocupados por la ciberseguridad, pero no necesariamente están bien dirigidos y pueden nublar las decisiones.

Estos mensajes se sustentan en que cada vez habrá más smartphones, computadoras, relojes inteligentes, cámaras de videovigilancia, pantallas, sensores y muchos otros dispositivos de la Internet de las Cosas conectados a la red.

 La prohibición y exclusión de empresas como las chinas Huawei, ZTE y otras de los despliegues de redes 5G en algunos países como Canadá, es la decisión menos afortunada en un entorno digital de múltiples participantes, con un ADN colaborativo y con requisitos de ciberseguridad cada vez más estrictos.

 La decisión de Canadá -y antes de Estados Unidos y Reino Unido- responde a intenciones geopolíticas, no está basada en evidencias empíricas sino en suposiciones políticas, distorsiona el mercado de equipos de telecomunicaciones, reduce la competencia entre fabricantes de equipos, favorece a otras empresas, eleva considerablemente los costos de despliegue y termina por retrasar el desarrollo de las redes y el ecosistema tecnológico 5G en perjuicio de los habitantes y las industrias.

 La carrera hacia 5G está en marcha y países como Estados Unidos, China y regiones como Europa quieren ganarla, mientras América permanece rezagada.

 Sin embargo, enfocarse retórica, política y comercialmente en Huawei enmascara y difumina el verdadero riesgo que implica la seguridad en 5G: la ausencia de una estrategia nacional de ciberseguridad, las inversiones limitadas, los despliegues apresurados, la falta de inspección y certificación de dispositivos de bajo costo.

 Las autoridades y los especialistas en ciberseguridad deberían realizar una evaluación honesta y más equilibrada de los riesgos, basada en evidencias, con un enfoque más amplio en las verdaderas vulnerabilidades, las probabilidades de amenazas y los impactos del riesgo cibernético.

  Los más grandes y dañinos ataques cibernéticos a infraestructuras críticas, bases de datos y empresas de los últimos años han ocurrido sin redes 5G. Excluir la infraestructura de Huawei de las redes 5G no las vuelve más seguras; al contrario, crea un velo geopolítico de “tranquilidad digital” que distrae a los actores públicos y privados de las verdaderas amenazas y vulnerabilidades de Internet.

 Es indudable que 5G representa un cambio hacia una nueva era industrial que hará a los países y las regiones más competitivas entre sí. 5G promete más velocidad, menor latencia, múltiples dispositivos conectados, pero también redes mucho más seguras.

 A diferencia de las generaciones anteriores, las redes 5G tienen la característica de que son inteligentes. Gracias a sistemas de virtualización, Inteligencia Artificial y procesamiento en la Nube, tienen la capacidad de detectar y prevenir ciberataques. Están diseñadas en capas para no colapsar sino para mitigar los riesgos y recuperarse rápidamente ante ataques cibernéticos. La información crítica y confidencial se puede separar dentro de la red para su mayor protección y tratamiento.

5G monitorea en tiempo real la red, identifica incidentes, responde ante amenazas y procura la pronta y eficaz recuperación ante un ataque.

  Ningún fabricante de equipos tiene la capacidad por sí mismo de poner en riesgo la integridad y operación de la red 5G. Pero en un ecosistema de redes, dispositivos, aplicaciones y plataformas interconectadas, cada actividad y componente de la red es un factor de vulnerabilidad potencial independientemente de los proveedores.

Para construir y ejecutar una red 5G se requiere una enorme cantidad de hardware y software de múltiples fabricantes y desarrolladores. La suma de cada equipo, aplicación y plataforma obliga a adoptar un enfoque colaborativo, de estándares, regulatorio y de mejores prácticas en materia de ciberseguridad.

Los operadores móviles son los más interesados en la seguridad de la red por lo que implica ofrecer servicios de telecomunicaciones y digitales confiables y de calidad. Pero los proveedores de servicios de Internet que instalan las redes 5G también operan en entornos económicos adversos que presionan contra las inversiones y las debidas medidas de protección cibernética, más allá de sus proveedores de infraestructura.

 En todo caso, las redes 5G son las más seguras. Las comunicaciones y las transacciones son más confiables. La ciberseguridad forma parte del corazón, el concepto, el diseño y los servicios de las redes 5G.

 México debe asumir un liderazgo en materia de políticas públicas y estrategia de ciberseguridad, alejarse de las políticas restrictivas y adoptar un enfoque colaborativo, de responsabilidad compartida y procompetitivo para avanzar hacia un 5G nacional, social y realmente seguro.




Fuente: El Economista