Comic TIC del Viernes, 30 de Abril de 2.021
Fuente: fmlopez48
Un grupo de investigadores de la Universidad de Washington está tratando de desarrollar un sistema que sea capaz de detectar con facilidad las imágenes satelitales falsas. El uso de 'deepfakes', que permiten transformar la voz y la imagen de una persona, se ha convertido en uno de los principales quebraderos de cabeza para los expertos en ciberseguridad.
Si es un usuario activo, lo más probable es que conozca los 'deepfake' desde hace tiempo. Esta tecnología, que permite transformar la voz y la imagen de una persona, es capaz de ofrecer resultados hilarantes. Sin embargo, también se ha convertido en una de las principales preocupaciones para los expertos en ciberseguridad. Ahora, un grupo de investigadores de la Universidad de Washington ha destacado en un estudio los riesgos que esconden las imágenes geográficas falsas tomadas mediante el uso de satélites.
Fuente: ABC
Conocer los sectores y los
mensajes más usados por los ciberdelincuentes para robar información
confidencial resulta muy útil para evitar entrar en sitios webs que nos son de
confianza.
El phishing está considerado una de las formas más sencillas del ciberataque, pero a la vez es muy peligrosa y efectiva. Quien lleva a cabo este delito de engañar a las personas para que compartan información confidencial no requiere conocimientos técnicos sofisticados. Se trata de traicionar a la mente humana y aunque pensemos que nosotros no vamos a caer en el anzuelo, resulta más fácil de lo que pensamos facilitar datos como nuestras contraseñas y números de tarjeta de crédito sin darnos cuenta del engaño.
Gran parte de las campañas de phishing operan explotando los nombres de empresas, marcas y productos conocidos. Los criminales quieren hacer pensar a los usuarios que el mensaje inicial procede de una entidad legítima, aumentando así las probabilidades de que haga clic y pueda activar la descarga del malware. Sectores como el de la tecnología, la banca, redes sociales y plataformas de TV en streaming son algunos en los que se han detectado más casos de phishing. En cuanto a los canales, el correo electrónico sigue siendo la vía más frecuente en el brand phising: representa el 44% de todos los ataques de este tipo.
Desde Panda Security ofrecen una serie de consejos para protegernos de estas amenazas. Uno de ellos es aprender a identificarlas puesto que existen ciertas características que pueden delatar un ataque a través de un correo electrónico, como los errores de formato o gramaticales, la mala ortografía o los saludos genéricos como 'querido usuario' o 'querido cliente'. Además, hay que asegurarse de que los enlaces comiencen con https:// y no con http://. También se recomienda compartir datos lo menos posible y eliminar los correos electrónicos sospechosos sin abrirlos y sin hacer clic en ningún enlace. Tampoco se deben abrir los archivos adjuntos en estos correos electrónicos sospechosos o extraños. Tener las últimas versiones de software nos ayudará igualmente a protegernos.
Ataques sofisticados
Dos de cada tres emails que recibimos contienen un píxel de seguimiento, también conocidos como ‘píxeles espía’. Pese a su nombre, este pequeño código que se inserta en los correos electrónicos sirve para que el remitente monitorice qué hacemos exactamente con ese email. Si bien lo habitual es que dicha información se recopile como Big Data para tener campañas de marketing más precisas, se trata de una tecnología que pueden utilizar igualmente los hackers.
Los píxeles de seguimiento son incluso más efectivos que la memoria caché de los navegadores y son una pequeña parte de las estrategias del spear phishing. A través del Big Data se filtra quienes son más susceptibles de caer en estafas, van mejorando sus técnicas y se inyectan códigos maliciosos. Y es habitual que los cibercriminales organizados en bandas mezclen los píxeles espía con otra tecnología como el JavaScript llegando a saber la resolución de nuestra pantalla, los plugins que utilizamos en el navegador y, en general, todas las tecnologías que usamos al acceder a Internet. «Se trata de una información muy valiosa para los hackers. Cuanto más saben de sus víctimas, más hilos tienen de los que tirar para averiguar lo que quieren sobre sus víctimas. Por poner un ejemplo, el hecho de que sepan la resolución de nuestra pantalla les indica si estamos en casa, en la oficina o de vacaciones. Al conocer los plugins que tenemos instalados en el navegador, les puede desvelar cuándo operamos con la banca online, o pueden intuir cuál es nuestro rol dentro de la organización en la que trabajamos», apunta Hervé Lambert, Global Consumer Operations Manager de Panda Security.
Por lo general, los gestores de correo más utilizados ya bloquean la descarga automática de imágenes si detectan que hay píxeles catalogados como sospechosos. Pero aun así es importante establecer los ajustes del navegador y del correo electrónico para que sean más restrictivos. Por ejemplo, bloquear gráficos externos o emails con maquetación HTML. «Somos conscientes de que estas medidas, aunque efectivas, no son la forma más adecuada de protegernos contra los ataques de spear phishing. Por ello, la suite de seguridad de Panda Dome, detecta y neutraliza los intentos de ataque que recibimos de forma global, no solo por email. Es importante comprender que lo que está en riesgo en Internet no es nuestro ordenador o nuestro móvil, sino toda nuestra identidad digital», apostilla Hervé Lambert.
Fuente: ABC Redes
Plan de datos de 5
gigas, minutos ilimitados a nivel nacional y WhatsApp ilimitado están entre los
beneficios a los que pueden aplicar 145 mil estudiantes de 9, 10 y 11 de
instituciones educativas públicas, estudiantes de universidades públicas y del
SENA.
El Ministerio abrió convocatoria que "llevará servicios de datos móviles a 145 mil estudiantes". |
'Última Milla Móvil'
es un proyecto del MinTIC que busca ofrecer una minutos e internet gratis a
estudiantes de instituciones públicas en todo el país.
En concreto, el Ministerio entregará 145 mil SIM cards que cuentan con un plan
de datos de 5 GB, minutos ilimitados a nivel nacional, 20 URL que no consumen
datos y WhatsApp ilimitado.
Los paquetes tienen
vigencia hasta el 15 de julio de 2022 y si quiere hacer parte de los
beneficiarios del programa debe tener en cuenta esta información: quien aplique
debe ser estudiante de alguna institución educativa pública de Colombia, debe
tener un teléfono inteligente que pueda navegar con capacidad 4G LTE y debe
estar dispuesto a pagar el valor de la SIM card ($5.450), por una única
vez al momento de su entrega.
Las postulaciones están abiertas hasta el 7 de mayo y si quiere aplicar para
ser uno de los beneficiarios de 'Última Milla Móvil' haga clic en este enlace.
Fuente: El Tiempo - Tecnosfera
Actualmente ocho de cada 10 compañías tecnológicas de Estados Unidos utilizan las soluciones de Sinch para reforzar el marketing conversacional.
La empresa brasileña Wavy y la sueca Sinch se consolidaron oficialmente para ofrecer servicios de envío de campañas con una interfaz de programación de aplicaciones (API, por sus siglas en inglés), además de Inteligencia Artificial (IA), la cual permite llevar a cabo conversaciones y servicios de integración personal.
Actualmente ocho de cada 10 compañías tecnológicas de Estados Unidos utilizan las soluciones de Sinch para reforzar el marketing conversacional y haciendo del costumer experience una práctica esencial para la comunicación entre clientes.
“Tenemos el potencial de enviar mensajes a todos los seres humanos, ya sea con WhatsApp, SMS, llamada de voz y tenemos otras plataformas. Nuestro propósito es simplificar la vida poniendo a las personas y a las empresas juntas, mejorando su forma de interacción y comunicación”, explicó Eduardo Henrique, gerente de desarrollo de negocio y presidente de Sinch para América Latina, en conferencia de prensa.
La brasileña Wavy que ahora se une a Sinch registró más de 350 millones de personas impactadas solo a través de SMS y más de 110 millones de mensajes enviados en el último año en diferentes sectores como bancos, tiendas, transporte, viajes y otros giros.
“La Inteligencia Artificial de Chatlayer entiende 125 o más lenguajes en su sistema. Un caso muy interesante fue que hicimos un proyecto en español y en chino mandarín porque hay muchos dueños de restaurantes en Panamá que son de China, entonces hicimos un robot con varios idiomas y fue para un proyecto para Pepsi que empezó en Latinoamérica”, explicó Henrique.
Entre los desafíos que enfrenta el sector señaló que destacan: traer más tecnología del mundo para América Latina y elevar la tecnología de IA conversacional especialmente en WhatsApp para otras regiones del mundo.
“Otro desafío tiene que ver con la evangelización de los clientes, para mí estamos en el inicio de un ‘tsunami de oportunidades’ y nuestro papel como innovadores es también evangelizar a nuestros clientes y abrir las ideas para trabajar sobre esto y presentarles un camino para la evolución y de reinventarse y la pandemia abrió esto”, finalizó el gerente de desarrollo de negocio y presidente de Sinch para América Latina.
Fuente: Forbes
México
En 16 años, YouTube pasó de ser una plataforma para compartir videos a un negocio millonario con presencia en más de 100 países.
Miguel Ensástigue | El Sol de México
En los últimos años, YouTube pasó de ser un sitio que surgió como un espacio para compartir videos al público en general a ser una fuente de ingresos donde cualquier persona puede ganar dinero a través de su propio contenido.
De acuerdo con YouTube, todos los meses, más de dos mil millones de usuarios acceden a la plataforma desde sus cuentas y miran más de mil millones de horas de video diarias.
Además, arriba de 70 por ciento del tiempo de reproducción proviene de dispositivos móviles, donde la página tiene presencia en más de 100 países.
En México, según la plataforma de monitoreo Social Blade, los canales de Masha y el Oso, Baby Bus, Tlnovelas, Little Angel y Peppa Pig son los más vistos.
Los ingresos mensuales del primer canal, estima la firma, van de 75 mil a 1.2 millones de dólares, el cual tiene poco más de 19.2 millones de suscriptores de diversas partes del mundo.
Las estadísticas de Social Blade también registran a canales como los de Cepillín TV, del finado Ricardo González Cepillín. Los ingresos, refiere el sitio, van de 12 mil a casi 200 mil dólares mensuales.
“Los contenidos son variados y el confinamiento fue fundamental para empujar canales educativos o de entretenimiento por los niños que se quedaron en casa. El mexicano está más acostumbrado a navegar por internet para relajarse o simplemente divertirse”, explica Santiago Mendoza, analista de telecomunicaciones.
¿NEGOCIO RENTABLE?
“Como todo buen negocio, es necesario invertir tiempo y dinero”, reconoce Gabriel Florentino, mejor conocido como “FireSword66” o “Fayresorto”, quien desde el 2012 tiene un canal de videojuegos, reseñas de anime y doblaje.
A la fecha, cuenta que ha invertido alrededor de 80 mil pesos para mantener a flote su comunidad. Parte de los recursos los ha destinado a comprar consolas de videojuegos, capturadoras de video, micrófonos, así como equipo de edición.
El problema, agrega, es la falta de tiempo para “alimentar” el canal con contenido diario o semanal.
Actualmente, el contenido que ofrece YouTube incluye videos musicales, educativos, noticiosos, de videojuegos, cocina, entre otros ámbitos.
Algunas de las fuentes de ingresos de la compañía provienen de la categoría de streaming, a través de la venta o renta de videos, películas o contenido exclusivo de algunos creadores. También están los segmentos de entretenimiento, música y blogs, que son de los más vistos por el público, de acuerdo con Statista.
GALLINA DE LOS HUEVOS DE ORO
Desde hace 16 años el mundo digital, publicitario y de la comunicación cambió tras el ingenio de tres amigos: Chad Hurley, Steve Chen y Jawed Karim, los creadores de Youtube.
Esta plataforma de video nació en 2005, en medio del auge tecnológico por el desarrollo de internet y los canales de comunicación. Messenger y sus zumbidos aún resonaban en los ciber cafés, Myspace ganaba terreno como una red social para compartir el día a día, pero apenas existían sitios para visualizar videos.
YouTube fue creado por Hurley, Chen y Karim luego de que eBay compró a Pay-Pal. Este grupo trabajaba para la procesadora de pagos, pero renunció al poco tiempo por desacuerdos internos.
YouTube nació ante la necesidad de tener una página para reproducir videos a gran escala sin la necesidad de enviar archivos pesados o en baja resolución por correo electrónico.
Fue así que el primer video de YouTube, creado y subido por Chad Hurley, consistió en una visita al zoológico de San Diego, California. Su duración es de 19 segundos y todavía se puede encontrar en la página con el nombre Me at the zoo. Un año después, en 2006, Google compró a YouTube por mil 650 millones de dólares.
En 2019, según datos de Statista, la plataforma contó con aproximadamente mil 680 millones de usuarios.
Fuente: El Sol de México
Investigadores esperan demostrar la viabilidad de esta nueva tecnología.
Es una pequeña molecula de plastico fue donde el equipo codificó |
Las palabras "si un esquema de felicidad falla, la naturaleza humana se vuelve hacia otro" se publicaron originalmente en 1814 en el Mansfield Park de Jane Austen. En ese momento, las palabras se imprimieron utilizando revolucionarias impresoras a vapor que podían enrollar más de mil hojas de papel por hora.
Desde principios de la década de 2000, es posible leer todas las obras de Jane Austen en línea, incluido Mansfield Park. Pero a partir de este año, la lista de lugares donde se publican sus palabras ha tenido una adición extraña.
En un nuevo estudio, un equipo de la Universidad de Texas en Austin ha codificado una cita de Mansfield Park en una pequeña molécula de plástico. Los investigadores esperan que el estudio ayude a demostrar la viabilidad de un nuevo tipo de tecnología para almacenar datos.
Archivar siempre ha sido un problema. Incluso las copias más cuidadosamente guardadas y protegidas de la tirada original de Mansfield Park muestran su edad, con la tinta descolorida y el papel arrugado.
Producimos más datos que nunca. Las estimaciones actuales lo sitúan en 1,145 billones de megabytes de datos al día; si alguien intentara descargarlo todo utilizando las velocidades actuales de Internet, llevaría casi dos mil millones de años.
Pero los vastos centros de datos que utilizamos actualmente para almacenar datos, en gran parte utilizando cinta magnética, no están a la altura. Aunque hay una evolución constante en el hardware y el software, los requisitos de potencias de procesamiento más rápidas y componentes más pequeños significan que la falta de almacenamiento efectivo está creando un cuello de botella y el sistema actual no puede satisfacer la demanda.
Se está buscando alternativas más pequeñas, estables y eficientes a los discos duros digitales. El interés de la investigación reciente ha recaído en el almacenamiento de datos de ADN: la idea de que podríamos usar los componentes básicos de la vida, el sistema que la naturaleza pasó millones de años evolucionando para codificar el modelo de nuestra especie, como un medio para almacenar y leer nuestra propia historia y conocimiento. Cuando falla un esquema de tecnología, la naturaleza humana cambia a otro.
Como molécula, el ADN dura mucho tiempo (500.000 años si se almacena correctamente) superando con creces la vida útil potencial del papel y la tinta en un orden de varias magnitudes. Pero debe mantenerse estéril y necesita un manejo cuidadoso. Esto puede hacer que el almacenamiento de información utilizando ADN sea caro.
Pero hay otra clase de materiales que se sabe que duran incluso más que el ADN. Estos productos sintéticos descubiertos hace un siglo tienen una estabilidad, facilidad de fabricación y un potencial de almacenamiento que supera con creces al ADN. Estos plásticos, o más específicamente, los polímeros, son moléculas de cadena larga que pueden describirse más fácilmente como que contienen múltiples unidades repetidas, cada una conocida como monómero.
Los investigadores calculan que los cuatro pares de bases, pares de bloques de construcción de ADN, pueden almacenar 1.019 bits de información por metro cúbico. Pero cuando usamos polímeros, tenemos más de cuatro bloques de construcción para elegir. De hecho, hay tantas opciones de monómeros como se pueden localizar comercialmente, por lo que existe la posibilidad de aumentar exponencialmente la densidad de información.
Para sus monómeros, o bloques de construcción, el equipo de Texas utilizó dieciséis aminoalcoholes diferentes. Uniendo estos, crearon dieciocho moléculas más largas, llamadas oligómeros, cada una compuesta de monómeros individuales. Dentro de las moléculas más largas, las combinaciones de monómeros correspondían a letras específicas, y los monómeros más baratos correspondían a letras de uso más común.
Cuando se leen, las moléculas revelan la cita de Jane Austen de Mansfield Park.
si falla un esquema de felicidad, la naturaleza humana se vuelve hacia otro; si el primer cálculo es incorrecto, mejoramos el segundo: encontramos consuelo en alguna parte.
Los investigadores eligieron el pasaje porque lo encontraron “edificante en estos tiempos difíciles, y se entiende fácilmente sin el contexto del libro”.
El equipo ciertamente encontró que “si el primer cálculo es incorrecto, mejoramos el segundo”. Su primer experto independiente en validar su método solo pudo recuperar el 98,7% de los datos. Con algunas modificaciones en el proceso de lectura, pudieron devolver el descifrado completo de las 158 secuencias de monómeros sin errores.
Es posible que los plásticos no sean la opción más obvia para el almacenamiento de datos, pero en consideración, son un material extremadamente adecuado para usar.
Desde que comenzamos a fabricar plásticos en masa, tradicionalmente nos hemos limitado a emplear un solo tipo de monómero por producto o combinaciones simples de uno o dos monómeros. Estos han llegado a dominar nuestras formas de vida.
Los plásticos son estables en condiciones ambientales normales. Si bien en muchos casos esto es una desventaja, como cuando se abren camino hacia el medio ambiente, en algunos casos cumple funciones extremadamente útiles.
Durante los últimos 50 años, los investigadores han logrado avances notables en la reducción de la dispersión (la variación molecular, generalmente en masa o forma) de los polímeros sintéticos y han mejorado nuestra capacidad para controlar la distribución de la secuencia de los monómeros.
El nuevo estudio de Texas ha demostrado que al salir de los confines del ADN, puede codificar información más compleja en una longitud de cadena mucho más pequeña, debido a la mayor variedad de monómeros disponibles.
El uso futuro probablemente dependerá de la disponibilidad comercial de monómeros, como qué aminoalcoholes pueden ser fácilmente accesibles a partir de fuentes renovables. Pero el potencial es enorme. La codificación de polímeros de cadena corta no está muy lejos de codificar el ADN, y el proceso de lectura de las secuencias es similar en ambos.
El equipo en Texas planea investigar los cuellos de botella con respecto a la escalabilidad de este método, cuestionando la velocidad y la eficiencia de los procesos de escritura y lectura.
Aunque el texto original en papel de Mansfield Park inevitablemente se desvanecerá en los próximos siglos, un pequeño fragmento se ha conservado en un polímero durante quizás los siglos venideros, siempre que tengamos el equipo disponible para decodificarlo. Como declara el fragmento final de la cita, “encontramos consuelo en alguna parte”.
Fuente: El Sol
de México
“El software se está comiendo el mundo” – Marc Andreessen, 2011. “El open source sigue comiéndose el mundo” – Deutsche Bank, 2015.
Hace una década, Marc Andreessen proclamó que el software se estaba comiendo el mundo. Esta afirmación se produjo en un momento en el que las startups de las redes sociales se estaban convirtiendo en gigantes y el cloud computing era todavía una tecnología emergente. La revolución del software introdujo una oleada de innovación y planteamientos que han impulsado la transformación de todos los sectores.
Unos años después, esta afirmación cambió: el software de código abierto se estaba comiendo el mundo, y el Deutsche Bank señaló en 2015 que había “rivales de código abierto para casi todos los principales mercados de software de infraestructura y de gestión de datos”. Red Hat siempre ha creído en la innovación del código abierto; es lo que nos hace ser Red Hat. Ver cómo la industria adopta los modelos de desarrollo de código abierto ha sido apasionante. Siempre ha sido bueno ver más opciones de código abierto y más contribuciones a los proyectos de código abierto, ya que da lugar a más variedad y a una mejor y rápida innovación. A partir de ahí, como se suele decir, “todo sucedió muy rápido”.
“Cada empresa es una empresa de software”
La transformación digital comenzó a afianzarse, las aplicaciones mandaban y todas las empresas se convirtieron en empresas de software. Retailers como Walmart y fabricantes de equipos como John Deere abrieron laboratorios de innovación que hacían hincapié en el desarrollo de las aplicaciones, las mismas que se reproducían frecuentemente sobre el software de código abierto que luego volvía a las comunidades e impulsaban al código abierto como un activo de la era digital.
Pero ahora, en 2020, la pandemia ha dejado claro que no podemos limitarnos a crear aplicaciones, sino que también debemos encargarnos de ejecutarlas. El Covid-19 obligó a las organizaciones a acelerar sus esfuerzos de transformación digital para impulsar nuevas innovaciones y satisfacer las demandas de los clientes. De hecho, en nuestro informe El estado del open source empresarial de 2021, la transformación digital se encuentra entre los tres principales usos que se le da al código abierto empresarial, junto con la modernización de TI y el desarrollo de aplicaciones. La relevancia del cloud computing y los servicios always-on significa que las organizaciones empresariales se decantan cada vez más por la nube híbrida como modelo operativo. La combinación de servicios de múltiples nubes públicas en la infraestructura del centro de dato y las cargas de trabajo locales (on-premises) que se extienden al mismo tiempo hacia el edge crean la nube híbrida, y no es una hazaña pequeña: para ello hace falta nuevas competencias, nuevas herramientas y nuevas estrategias.
En resumen, no basta con considerar a cada empresa como una empresa de software. Ahora, todo CIO es un gestor de la nube.
¿Estoy diciendo que cada organización empresarial es el próximo hyperscaler? Por supuesto que no. Pero piense en la combinación de hardware, aplicaciones, entornos virtuales, servicios en la nube existentes e infraestructura asociada que supervisa el CIO medio. Puede que no esté al mismo nivel de lo que consideramos “nube”, pero eso no hace que sea menos. Nuestros centros de datos están en camino de estar compuestos por cientos de nubes únicas, y cada organización necesitará tener las plataformas, las herramientas, los procesos y las personas para operar eficazmente en estos diversos escenarios.
Todos los CIO y sus respectivas organizaciones deben comprender que controlan su propio destino en la nube. Sabemos cómo crear para la nube, pero ahora tenemos que saber cómo ejecutar la nube a escala.
Se trata de servicios en la nube Y aplicaciones
Desde que empecé a trabajar en TI, la “elección” ha sido un componente crucial de la toma de decisiones de TI. Un CIO no planifica de la nada ni sólo para hoy. La dirección de TI tiene que prever cómo una decisión que puede parecer sencilla en este momento puede suponer en el futuro una complejidad tremenda, incapacidad para competir o incumplimiento de la normativa del sector en evolución. Esto significa que la elección y la flexibilidad han sido consideraciones clave en años anteriores, pero siguen siendo aún más importantes hoy en día, incluso cuando los CIOs adoptan un papel como gestor de la nube.
Apostar por los servicios en la nube puede parecer fácil, pero como estrategia global, es una apuesta de futuro que pocos CIOs están haciendo para dotarse de la máxima flexibilidad en un mundo que cambia rápidamente. Mantener un gran centro de datos que está repartido en varias ubicaciones, y también en varias nubes, requiere un personal de TI altamente cualificado y puede suponer un coste considerable. Adoptar un enfoque híbrido ofrece un equilibrio, tanto tecnológico como económico, pero sin una base consistente de nube híbrida, hay enormes dificultades en la combinación de servicios locales (on-premises) y en la nube, a lo que se suma el riesgo de stacks incompatibles.
No hay una única respuesta correcta para cada CIO como gestor de la nube, al igual que no había una única respuesta correcta cuando nuestra “única” preocupación era desarrollar un software. Por ello, la elección y la flexibilidad deben respaldar cada decisión que tomemos: los CIO deben ser capaces de desarrollar, operar y asegurar cientos, miles o cientos de miles de cargas de trabajo en múltiples entornos, una tarea increíblemente compleja que no debe afectar a la producción ni suponer flujos de trabajo aislados.
Esto hace que sea imprescindible que la próxima fase de soluciones de TI fluya sin esfuerzo a través de la nube híbrida, desde el servicio en la nube hasta las aplicaciones del centro de datos y viceversa. Tanto si se trata de un servicio gestionado o de un despliegue on-premises, estas cargas de trabajo deben ser precisamente eso, cargas de trabajo, que los CIO, como gestores de la nube, puedan ejecutar donde, cuando y como lo necesiten.
Más allá del centro de datos… y más allá de la nube
Para los CIO que mantienen centros de datos tradicionales (y eso quiere decir casi todos los CIO), la noción de centro de datos también se está expandiendo horizontalmente. Aunque ya no es raro escalar las cargas de trabajo y los entornos a la nube pública, las demandas de las aplicaciones modernas y de los usuarios finales no encuentran una respuesta completa en el procesamiento y el análisis centralizados. El auge del edge computing viene de la mano del 5G en las telecomunicaciones, la inteligencia artificial (IA), la realidad aumentada, los vehículos como centros de datos, entre otros, llevando los recursos de cómputo a los edges más lejanos de las redes empresariales.
Ya he hablado antes de los dos factores clave que veo en el edge computing:
Simplemente no existe sin la nube híbrida.
La base del edge computing debe ser abierta o fracasará.
Los entornos de nube, los centros de datos y los dispositivos edge son entornos extremadamente diferentes, cada uno con necesidades únicas en cuanto a la gestión, la seguridad de la red y mucho más. Los gestores de la nube necesitan una base común que abarque estos diversos entornos, al igual que lo hicieron para conectar diferentes despliegues de la nube, entornos virtualizados y stacks de hardware. Esa base común ha sido, es y siempre será Linux y los contenedores Linux.
Para los gestores de la nube, Linux proporciona la conexión entre cada entorno de la nube híbrida abierta, incluido el edge. Poder trasladar las cargas de trabajo del edge al centro de datos y a la nube pública sin tener que cambiar nada de cada aplicación es vital y sólo es posible gracias a los estándares abiertos del kernel de Linux. Linux es la base de la nube híbrida, y también es la base del edge más lejano de la TI empresarial.
La evolución es algo más que cambiar las herramientas de software
Sin embargo, ser un gestor de la nube es algo más que adoptar e integrar nuevas tecnologías básicas. Se trata de entender lo que se necesita por encima y más allá de estas tecnologías para ampliar aún más sus operaciones en la nube a escala, así como de adquirir las habilidades internas para construir, gestionar, mantener y asegurar completamente estos entornos ampliados.
Desplegar con éxito las plataformas subyacentes para una estrategia de nube híbrida abierta es una cosa, pero conlleva más retos: seguridad, compliance, redes y gestión. Una nube no es un despliegue estático; cambiará y NECESITA cambiar para adaptarse a las necesidades empresariales dinámicas y a las demandas del mercado. Entender lo que su despliegue específico requiere ahora (y requerirá en el futuro) es la clave del éxito para los CIO como gestores de la nube.
Por último, los gestores de la nube necesitan que las competencias estén dentro de la organización para gestionar realmente sus nubes, sea cual sea la definición del término que elijan aplicar. Siempre serán demandadas las habilidades tradicionales de TI, pero es igualmente importante nutrir a los equipos para que aprendan y dominen las nuevas plataformas tecnológicas mientras construyen un catálogo interno de herramientas y mejores prácticas que son vitales para el éxito futuro. Un gestor de la nube que se esfuerza por lograr un éxito sostenible no puede subcontratar todo: hay cosas que debe aprender a hacer por sí mismo.
Por eso también estoy entusiasmado con la importante ampliación de la alianza de Red Hat y la Universidad de Boston que hemos anunciado en el Red Hat Summit, centrada en la investigación y las operaciones de la nube híbrida abierta a escala y en las inversiones en programas destinados a ayudar a crear talento de última generación capacitado en código abierto y tecnologías emergentes.
El nuevo centro de datos es la nube híbrida, compuesta por servidores bare-metal, entornos virtualizados, dispositivos edge y potencialmente cientos (o más) servicios en la nube. Los CIO son los recién acuñados gestores de estos complejos y vastos entornos de la nube, y necesitan las plataformas, las herramientas, los procesos y el personal para operar en estas nubes.
Al igual que Red Hat estaba preparada para ayudar a todas las empresas a convertirse en empresas de software, estamos aquí para ayudar a los CIO a adaptarse al nuevo mundo de las operaciones en la nube. El futuro es híbrido, y nosotros también.
Por Paul Cormier, presidente y CEO de Red Hat
Fuente: DIario TI