08 abril 2006

Software Libre: La revolución del conocimiento compartido

¿Se ha preguntado qué hay detrás de los programas que los hacen funcionar nuestras computadoras? Hasta hace poco la gigantesca empresa Microsoft prácticamente tenía el monopolio en esta materia, no obstante, una comunidad mundial, surgida desde la propia sociedad civil, decidió poner fin a esta situación y comenzó a desarrollar los llamados software libres.

Para muchas personas los computadores son indispensables para la vida, con ellos trabajan, estudian, se informan, conversan con sus amigos, se entretienen, se comunican, en fin. Pero para que todas esas funciones sean posibles, son necesarios programas computacionales, primero, un sistema operativo, algo así como una plataforma que permite que las otras cosas funcionen y, luego, otros programas llamados software que se pueden ir agregando de acuerdo a las necesidades de cada quien.

En general, además de utilizarlos, pocas veces nos preguntamos por el origen de estos programas y lo que hay detrás de ellos. Cuando compramos un computador, viene vacío, sólo con el hardware, en otras palabras, con las piezas que se pueden tocar, pero sin ningún contenido dentro, entonces, en la tienda nos ofrecen instalar el sistema operativo más común, que es Windows, pero éste tiene un precio que debemos pagar y si queremos agregarle más programas, deberemos ir comprándolos. Sabido es que Windows es de la empresa Microsoft del multimillonario estadounidense Bill Gates y que, hasta hace poco, controlaba la mayor parte de los sistemas computacionales alrededor del mundo. Pero las cosas están cambiando.

Además de los programas pagados, existe el Software Libre, que es gratuito, como su nombre lo dice, y otorga una serie de libertades a los usuarios, entre ellas, cuatro que son básicas: usarlo con cualquier propósito, personal, comercial, altruista, etc; estudiarlo, hacerlo propio, es decir, transformarlo y, finalmente, realizar nuevas versiones y hacerlas públicas, eso sí, respetando al autor original del programa.

“El software libre es la continuación de la tradición original como se creó el software, nació como sujeto de estudio científico, que es abierto. Lo que era caro era el hardware, después las empresas descubrieron que podían cobrar por el software y comenzaron la apropiación. Así crearon un producto comercial que no tiene posibilidad de competencia”, explica Jaime Navarrete, secretario del Centro de Difusión del Software Libre, una organización de la sociedad civil, sin fines de lucro, dedicada a difundir las oportunidades que entrega este sistema en Chile.

Fue en 1983 cuando un desarrollador de software del laboratorio de Inteligencia Artificial del Masachusset Institute of Tecnologie (MIT), se dio cuenta que los avances computacionales no eran para difundir el conocimiento sino para cerrarlo y transformarlo en un producto comercial. Dos años más tarde fundó la Free Software Fundation, actualmente radicada en Boston, EE.UU.

Pero, ¿qué hace que estos programas sean libres? Básicamente, que sus códigos de fuente, algo así como las partituras de una canción, vienen disponibles y tienen posibilidades de transformarse. En el software comercial, en cambio, estos códigos son cerrados, es decir, los usuarios no pueden acceder a ellos.

En 1991, Linux Troval, un estudiante finlandés envió un correo electrónico contando que pensaba crear un software con códigos abiertos. Fue la chispa que dio como resultado al sistema operativo Linux, que es lo mismo que Windows, pero libre, y que en la actualidad es utilizado para el 70% del tráfico de información en el mundo.

De esta manera se fue formando una comunidad alrededor del software libre. “Computines” que fueron perfeccionando los programas, publicándolos, compartiéndolos y difundiendo por el mundo las bondades de este nuevo sistema. Con ellos también surgió una especie de filosofía, una actitud de compartir y trabajar en comunidad.

“Uno se da cuenta que como individuo puede incidir en aquellas conductas a las persona está hoy día sometido, por esta lucha de quienes tienen más con respecto de quienes tienen menos, y cómo el software libre nos permite profundizar en temas que hoy están vigentes: desigualdades, falta de oportunidades, inequidades sociales, trabajo colectivo, comunitarismo y otros”, señala Patricio Mercado, jefe de la Unidad de Nuevas Tecnologías del Instituto Nacional de la Juventud (Injuv).

La difusión y uso de estos conocimientos gratuitos hacen pensar que con ellos es posible también generar condiciones para que las personas de menores recursos tengan también acceso a mayores oportunidades y mejores condiciones de vida.

Pero no todo es filantropía y de alguna parte debe salir el dinero para financiar todo esto. ¿La fórmula? El propio mercado, afirma Carlos Muñoz, gerente general de Linux Center, una empresa transnacional dedicada a prestar servicios y capacitación en software libre. Además de los negocios, los mayores aportes a este tema provienen de las propias empresas de tecnología, como IBM, Hewlett-Packard, entre muchas otras que, viendo el inmenso mercado del que se apoderaba Microsoft, “entendieron que estar de la mano de un solo amigo es complicado. Un grupo de empresas de tecnologías han encontrado que no es bueno estar al lado de Microsoft y han apoyado el software libre”, explica Muñoz. Estos aportes van especialmente a la investigación y representan cifras nada despreciables, como el billón de dólares que IBM donó para la masificación del software libre.


Políticas Públicas

La mayor parte de quienes utilizan software libre y componen la comunidad son menores de 30 años y, en general, hay un gran desconocimiento respecto al tema, no obstante, en varios países del Europa, en China, India y Brasil, su uso es cada vez mayor gracias a políticas públicas que han optado por este sistema por sobre el comercial.

En el caso de Chile, sólo el 6% de todo el sector público está envuelto en el proceso de difusión y aplicación del software libre, a pesar que este sistema ahorraría grandes costos estatales. Pero las cosas están cambiando. Si en un comienzo el gobierno se declaró neutro con respecto al tema, es decir, no imponía ningún tipo de software y todo estaba bien mientras aportara a la ciudadanía, ahora tiene una posición de difusión del software libre. Esto, porque a partir de la Agenda Digital del gobierno de Lagos, se constataron experiencias muy buenas en esta materia. Una de ellas es la del Injuv, donde el 60% de los 98 infocentros que posee utilizan Linux.

En el Injuv se dieron cuenta que este sistema, además de todas sus garantías explícitas, permite a quienes lo usan aprender más y con mayor rapidez, ya que requiere esfuerzo y creatividad de parte de los usuarios.

¿Estarán contados los días del imperio Microsoft? Está por verse.

 

Microsoft Virtual Server 2005 podrá ejecutar Linux sobre Windows

La virtualización está acaparando la atención de los clientes corporativos, ya que facilita a las organizaciones consolidar muchas aplicaciones en un solo servidor ofreciendo grandes niveles de fiabilidad. Es por ello que Microsoft anunció el desarrollo del software Viridian para simplificar la instalación de las distribuciones Linux de Red Hat y Novell SuSE, las cuales podrán funcionar en Virtual Server 2005 SP2 sobre Windows. Dentro de este ámbito, la firma enfrenta una dura competencia con VMware y el proyecto de código abierto Xen, el cual se incluirá en las próximas versiones de SuSE Linux Enterprise Server y Red Hat Enterprise Linux.

 

 

Nota de Jamardu: ya probé VMware para ejecutar ASTERISK@Home sobre WXP y funciona muy bien.

 

Linphone: el Skype alternativo

Los usuarios de Windows cuentan con Skype para poder realizar llamadas llamadas telefónicas a través de su computadora. Ahora, Linux ofrece el Linphone: un teléfono web con una interfaz GNOME que permite hacer llamadas de voz por IP a través de Internet o LANs (Local Area Network) entre estaciones GNU/Linux y hacia otros "webphones" compatibles con SIP (Session Initiation Protocol). Cuenta con varios "codecs" (codificadores / decodificadores) integrados, lo que le otorga compatibilidad con conexiones de alta velocidad, siendo ya viable su uso desde módems de 28k.

 

07 abril 2006

Guía básica de la ventilación de la PC (1ra parte)

Todo ensamblador conoce bien los beneficios de utilizar poderosos coolers que mantengan refrigerados los componentes de la PC, haciendo circular el aire alrededor de los mismos. Sin embargo, hay unos cuantos conceptos básicos acerca de la ventilación que pueden pasarse por alto, derivando en soluciones de cooling inadecuadas, ya sea por que producen un ruido excesivo o por que no ventilan lo suficiente. En esta serie de notas haremos un repaso de los conceptos básicos de la refrigeración por aire en las PCs.

Antiguamente, se podía confiar en que el pequeño ventilador de la fuente realizara la tarea de succionar el aire caliente de la PC para mantener a todos los componentes a una temperatura adecuada para su funcionamiento. Hoy en día, dada la densidad y velocidad de los recientes procesadores, motherboards y placas de video, es imposible conformarse únicamente con ese mecanismo de ventilación.

Lo primero que debe tenerse en cuenta es que, en general, cuanto menor sea la temperatura de los componentes, mejor será su funcionamiento. La razón de esto es que, cuando las partes sensibles se calientan, se expanden en volumen, y dado que los chips son cada vez más densos, aún las variaciones más pequeñas pueden causar una notable degradación de su performance.

El método más común de mantener a las PCs a una temperatura adecuada es utilizar una combinación de ventiladores, disipadores de calor y una pequeña dosis de química para llevar el aire caliente fuera del gabinete, reemplazándolo por aire fresco.

Conceptos básicos de ventilación

La velocidad a la que circula la electricidad por dentro de los circuitos –cada vez más apretados– de los chips es la causante de la gran cantidad de calor que éstos producen. Para eliminar todo este calor, la primera clave es la transferencia térmica. Al colocar algún material directamente en contacto con un componente caliente, el calor fluirá desde el componente hacia el material en cuestión. Comúnmente, el material utilizado es una pieza de aluminio o de cobre, dada la cualidad de estos metales de mover el calor rápidamente. El aluminio es bueno para esta tarea, pero el cobre es mejor.

Al colocar una pieza de cobre (por ejemplo) sobre un micro en funcionamiento, dicha pieza de cobre absorbe el calor producido por el micro, hasta que ambas partes quedan a igual temperatura. En ese momento, la transferencia de calor cesa, por lo cual debe buscarse la forma de que la transferencia continúe mientras el chip siga funcionando y generando calor.

Para que la pieza de cobre pueda seguir “robándole” calor al procesador, debe a su vez descargar el calor absorbido hacia otro lado. La solución para esto son los disipadores. La función de los disipadores consiste en aumentar la superficie de contacto entre nuestra pieza de cobre y el aire que la circunda; cuanto mayor sea la superficie, mayor será el intercambio de temperatura entre la pieza de cobre y el aire. Sin embargo, para que la transferencia no cese, este aire debe moverse continuamente, lo cual obviamente se consigue con el agregado de un ventilador.

Colocando un ventilador por encima o al costado de los disipadores se logra renovar constantemente el aire que rodea a éstos, y por lo tanto la transferencia de calor entre el procesador, la pieza de cobre y el aire se mantiene constante. El siguiente paso consiste en llevar el aire caliente fuera del gabinete, ya que si ignoramos este problema, llegará un momento en que ya no quede aire fresco dentro de la PC, y por lo tanto la transferencia térmica una vez más dejará de ocurrir.

La respuesta a esta necesidad son más ventiladores; preferiblemente, uno de entrada que introduzca aire fresco dentro del gabinete y otro de salida que expulse el aire caliente fuera de la PC.

Hasta aquí hemos enunciado los principios básicos de refrigeración por aire de los componentes de una PC: piezas metálicas (de cobre o aluminio) que absorban el calor de los componentes, disipadores que aumenten la superficie de contacto de las piezas metálicas con el aire circundante, ventiladores que hagan circular el aire alrededor de los disipadores, y otros ventiladores que renueven continuamente el aire dentro del gabinete.

En la segunda parte de esta nota veremos el papel que juegan el gabinete, la fuente, el micro y demás componentes en el diseño de una solución de cooling óptima para cada PC.

 

05 abril 2006

Redes inalámbricas: cuando los límites de nuestra red son difusos

Tecnología

Desde hace ya varios años muchas empresas han implementado redes inalámbricas (o están actualmente en dicho proceso), mayormente a causa del bajo precio de los dispositivos, la reducción en el costo de cableado y la facilidad para el despliegue de nuevas redes o la extensión de las ya existentes. A continuación le presentamos algunas de las principales características de las redes que hoy en día conocemos.

Aunque se podría pensar que las redes inalámbricas basadas en el estándar 802.11a proveen un buen nivel de seguridad de la información, esta situación no se cumple en la práctica. Dicho estándar incluye un protocolo denominado Wired Equivalent Privacy (WEP) cuya seguridad se basa en la utilización de un sistema de claves compartidas, o en su defecto, el uso de claves estáticas en los dispositivos.


Figura N° 1. Redes y sus características


En el modo de claves compartidas se envía una cadena de bytes al dispositivo que intenta conectarse a la red inalámbrica, y éste debe responder con la misma cadena cifrada con la clave que ambos conocen, resultando en un esquema clásico de “challenge – response”. Si el cliente falla en enviar la cadena correctamente cifrada, no se le permite el acceso a la red. Adicionalmente, WEP provee un mecanismo para el cifrado de los datos trasmitidos en el aire, utilizando un algoritmo llamado RC4 el cual puede operar con claves de 40 ó 128 bits. Toda la información en tránsito entre los puntos de acceso y las tarjetas de red inalámbrica de los clientes, es cifrada y es en el mecanismo WEP donde se confiaba para proveer de seguridad a toda la red. Sin embargo, el protocolo incluye algunos errores de diseño que evitan que la seguridad provista sea efectiva. En particular, el denominado “key schedule” (esencialmente la forma en la que las claves se eligen y van cambiando) y el tamaño del vector de inicialización que se utiliza para cifrar cada byte, unidos a la previsibilidad de muchos de los datos en tránsito (cabeceras de los paquetes IP, cabeceras de protocolos de transferencia de datos, etc.) permiten que se puedan ejecutar ataques sobre el sistema criptográfico.

Los ataques son fácilmente ejecutables con herramientas disponibles libremente en Internet. A modo de ejemplo, y para una de las herramientas más usuales, basta con obtener entre unos 5 y 10 millones de paquetes cifrados para deducir la clave, lo cual en una red de mediano porte se puede conseguir en unos 15 minutos de escucha pasiva. Cabe indicar que esto no es una debilidad específica del algoritmo RC4, sino de la forma en la cual éste es utilizado (incorrectamente) dentro de WEP. La otra opción disponible (claves estáticas en los dispositivos) genera un esfuerzo administrativo considerable, requiriendo de mucho más tiempo para su correcta implementación. Además, si un equipo que tiene la clave incorporada es robado, ésta puede ser fácilmente recuperada de la configuración, lo que pone en peligro a toda la red desde el momento del robo hasta el cambio de la totalidad de las claves estáticas, y esto recién ocurre cuando el dispositivo es declarado como robado.

Estos problemas de seguridad llevaron a las empresas a implementar políticas incorrectas, debido al desconocimiento de las debilidades existentes en un principio y a la falta de soluciones sencillas luego que éstas fueron detectadas.

Mas allá de las fallas de seguridad de las redes inalámbricas, que pueden comprometer los datos en tránsito, también existen diferentes ataques de negación de servicio a éstas. Algunos ejemplos incluyen: interferencia de las bandas utilizadas para transmisión de datos (otras tecnologías como BlueTooth utilizan el mismo rango de frecuencias), agotamiento de bandas debido a requerimientos de conexión que no son terminados, y también los ataques usuales sobre redes físicas como el “spoofing” de direcciones MAC o IP.

Conociendo los riesgos, un “Administrador de Redes” puede tomar la decisión de que esta solución, por más interesante que parezca, no debería ser implementada sin los debidos controles o hasta que se desarrollara un estándar de seguridad aceptable. Sin embargo, otro posible problema que puede ocurrir es que alguien instale un punto de acceso inalámbrico en algún punto de la red física. Estos puntos de acceso en general están configurados para no requerir ninguna clase de autenticación, lo cual facilita el uso interno de los usuarios, pero también permite a cualquier persona no perteneciente a la empresa (por ejemplo con un equipo portátil estacionado frente al edificio o en una oficina cercana) acceder a nuestra red.

Como se decía anteriormente, la gran mayoría de las tarjetas inalámbricas permiten crear una red entre ellas sin necesidad de tener un punto de acceso (Access Point) en la red (en el modo “ad-hoc”). Si estas máquinas también están conectadas a la red física de la empresa, nuevamente se genera un punto de acceso a los equipos y posiblemente a la red, para un atacante que no necesita estar físicamente en las instalaciones. Otra variación de este tipo de ataque consiste en el atacante instalando un punto de acceso cercano a las oficinas de la víctima, causando que los clientes se autentiquen contra ese punto de acceso, y así permitiéndole manipular los paquetes que llegan a este punto de acceso.

La detección de estos puntos de acceso es extremadamente difícil, ya que deberían de hacerse inspecciones físicas y lógicas de toda la red cada cierto tiempo (usualmente con las mismas herramientas que utilizaría el atacante) para encontrarlos y eliminarlos de la red de la empresa.

Todo esto llevó, lógicamente, a pensar que para entornos corporativos esta tecnología no resulta adecuada, y que eran requeridas extensiones de los estándares para que se pueda usar en ambientes en los cuales la seguridad de la información es un factor determinante.

Una aproximación es la utilización de túneles IPSec, que es un estándar abierto de cifrado de redes IP que utiliza DES, 3DES o AES. Esto requiere la instalación de un cliente en cada PC que desee conectarse a la red para realizar los túneles correspondientes, y el filtrado de todo tipo de comunicación inalámbrica no autenticada mediante listas de acceso en los puntos de acceso, permitiendo así solamente realizar conexiones con el proveedor de túneles, y los equipos que proveen direcciones IP (DHCP). Otra solución es la provista por la extensión del estándar a 802.11X, que utiliza Extensible Autentication Protocol (EAP) lo que agrega al estándar 802.11 autenticación centralizada y cambio de claves dinámicamente. Estas extensiones agregan no solamente la autenticación del cliente con el punto de acceso sino además que el punto de acceso deba autenticarse dentro de la red para poder trabajar. Esto impide la instalación de puntos de acceso y todos los problemas asociados que se indicaban previamente. Las claves de acceso son cambiadas y generadas dinámicamente, por lo que nunca se trasmitirá la cantidad necesaria de paquetes con la misma clave de acceso de cifrado, como para que las herramientas anteriormente mencionadas consigan esta clave, o en su defecto, cuando la consigan, esta clave de acceso ya no estará más en uso.

Para mitigar los problemas de WEP se introdujeron también dos cambios, uno es comenzar a cifrar las comunicaciones utilizando Advanced Encryption Standard (AES) y no más RC4. También se implementó un método de control de integridad de contenido de los paquetes conocido como Temporal Key Integrity Protocol (TKIP) para utilizar con RC4.

Las extensiones antes mencionadas requieren más inversión inicial, ya que además de las tarjetas de red y los puntos de acceso, se requiere un servidor para la terminación de túneles IPSec (para la primera opción) o un servidor Radius (para las extensiones 802.11X) destinado a la autenticación, generación y transmisión de claves generadas dinámicamente, así como también la necesidad de tener en la red switches capaces de manejar las extensiones 802.11X.

En conclusión, es posible indicar algunos puntos importantes a tener en cuenta para cualquier organización que cuente con (o esté planeando instalar) redes inalámbricas:

  • El protocolo WEP incluido en el estándar 802.11 (particularmente en sus modos de 64 y 128 bits) no es seguro, y no debería utilizarse en redes que contengan información sensitiva o donde la autenticación del origen de los mensajes sea crítica.
  • El modo “ad-hoc” de operación presenta una serie de debilidades de seguridad importantes – si éste utiliza, la red donde se aplica debería ser segregada adecuadamente del resto de la red de la organización.> Debería agregarse a los programas de control interno y auditoría la realización periódica de corridas de herramientas para buscar puntos de acceso a la red local, basados en tecnología inalámbrica.
  • Existen alternativas seguras para la utilización de tecnología inalámbrica, pero representan una inversión mayor. Como en cualquier proyecto de desarrollo o extensión tecnológica, la relación costo – beneficio debería ser analizada antes de su implantación.

Espiñeira, Sheldon y Asociados, Firma miembro de PricewaterhouseCoopers-->

Más de 150 puntos Wi-Fi ofrecerá Intercable en Venezuela

 

Internet

 

 

Imprimir artículo con:

Imprimir con HP

 

A mediados de Abril

Habitantes y visitantes de Barinas, Barquisimeto, Caracas, Maracaibo, Maracay, Mérida, Punto Fijo y Valencia cuentan con Internet inalámbrico gracias a la Zonas Wi-Fi de Intercable, la red de hotspots que la compañía ha venido desarrollando desde el año 2004 para atender a los usuarios de notebooks y PDAs que necesitan estar siempre conectados.

La celebración del décimo aniversario de Intercable, la empresa que en 1996 comenzó siendo un operador de TV paga y que en la actualidad es toda una compañía de telecomunicaciones con más de 14 mil kilómetros de fibra óptica -sobre los que viajan además sus servicios de Internet y Telefonía- no podía quedarse en la estupenda celebración que tuvo lugar el pasado 22 de marzo en la Quinta La Esmeralda de la ciudad de Caracas.

Liderada por el Arq. Eduardo Stigol, Intercable ha diseminado cerca de 100 hotspots en nueve ciudades venezolanas desde el año 2004 hasta el pasado mes de marzo. En una entrevista exclusiva con pc-news.com, Stigol anunció la existencia de 50 nuevos puntos que ofrecerán cobertura Wi-Fi para el próximo 15 de abril y los planes para incorporar 150 nuevas Zonas Wi-Fi en los ocho meses restantes de 2006, para totalizar 300 hotspots.

Pablo Shapira, vicepresidente de marketing de Intercable, informó que Zona Wi-Fi es la marca registrada de Intercable que identifica aquellos establecimientos, centros comerciales, restaurantes, hoteles y aeropuertos donde la compañía ofrece acceso inalámbrico a Internet a través de dispositivos compatibles con alguno de los estándares 802.11 que en la actualidad se consiguen en la mayoría de las computadoras portátiles y PDAs de última generación o a través de tarjetas que se colocan en equipos no tan recientes.

El anuncio llega en el preciso instante que Intel promueve el 5 de abril como el Día Inalámbrico en Venezuela y que Intercable está apoyando al extender la gratuidad de su servicio hasta finales de este mes.

A partir del 1° de mayo, los usuarios que necesiten acceder de forma inalámbrica a Internet desde una Zona Wi-Fi podrán hacerlo comprando una de las tres tarjetas disponibles, a saber, 5, 15 y 35 mil bolívares para un total de 60 minutos, 24 y 120 horas, respectivamente. Los establecimientos tendrán las tarjetas a la venta, aunque al momento de conectarse la pantalla de bienvenida ofrecerá la posibilidad de cancelar el servicio con una tarjeta de crédito. Los clientes residenciales y empresariales del servicio Internet de Intercable, podrán contar con 120 horas mensuales de acceso inalámbrico en cualquiera de las Zonas Wi-Fi que Intercable ponga en servicio.

Las organizaciones interesadas en ofrecer conectividad Wi-Fi a sus clientes pueden elegir entre correr con la totalidad de los gastos de instalación y conexión, sin cobrar nada a sus clientes ofreciendo el servicio como un valor agregado del establecimiento o distribuir tarjetas pre-pagadas que les dejan un "porcentaje importante". La inversión oscila entre los 600 mil y los 5 millones de bolívares.

Wi-Fi @ Work & Home

Con los nombres Wi-Fi Hogar y Wi-Fi Empresarial, Intercable está ofreciendo asesoría, venta e instalación de access points en aquellos hogares y empresas que quieran contar con acceso inalámbrico a Internet. Los principales argumentos para ofrecer estos paquetes son la experiencia de la compañía, la seguridad de la instalación y el uso compartido por parte de los integrantes de la familia o los empleados de la organización.

Al infinito y más allá

Eduardo Stigol espera con ansias la llegada de la tercera fase de su proyecto cuando Intercable comenzará a colocar antenas en azoteas y espacios abiertos. "Dentro de muy poco tiempo los teléfonos celulares no solo aceptarán una señal telefónica tradicional, sino que además serán compatibles con Wi-Fi", aseguró Stigol. "Un usuario va a estar hablando desde su celular en la casa a través de Wi-Fi y al salir a la calle va a encontrar, por ejemplo, cobertura GSM, pero al llegar al centro comercial o al campus universitario va a poder hablar nuevamente a través de Wi-Fi, de forma transparente y mucho más económica."

En Maiquetía no hay

Es decir, en el Aeropuerto Internacional de Maiquetía Simón Bolívar no hay una Zona Wi-Fi de Intercable. Hay cobertura en el Hotel Eurobuilding Express pero no en los terminales nacional o internacional. "Nos corrieron" asegura Stigol al dar a conocer que si bien al principio compartían espacio con otra organización, las autoridades del aeropuerto dejaron exclusivamente una compañía. "En otros aeropuertos, cuando se inicia la conexión, aparecen en pantalla diferentes proveedores entre los cuales el usuario elije el que mejor satisface sus necesidades. Este no es el caso de Maiquetía."

Cada Zona Wi-Fi cuenta con 4 MB para bajar información y 1 MB para enviar hacia Internet. Stigol afirma que entre los clientes del servicio se encuentran vendedores u otros profesionales que frecuentemente necesitan enviar desde la calle archivos (documentos, hojas de cálculo, imágenes) a sus oficinas y quieren hacerlo de la forma más rápida posible.

Aproveche que este miércoles 5 de abril habrá muchos puntos abiertos para conectarse a la red de redes. Si no sabe donde ir visite www.intercable.net.ve/internet/zonawifi.html y elija la ciudad donde se encontrará en los próximos días. Suerte y happy & free surfing!

No deje de leer

El 5 de abril será el Día Inalámbrico en Venezuela
¿En qué lugares se conecta Ud. a Internet?
Redes sin cables
3Com 11 Mbps Wireless LAN: a prueba.
Confirmado: Un Centrino tiene cuatro patas
Sale una paella, dos tintos y un par de cañas

Jose Blanco Oliver

 

Slim adquiere a Cantv

 

Negocios

 

 

Imprimir artículo con:

Imprimir con HP

 

Las Telcos están de moda entre los multimillonarios de la región

El tercer hombre más rico del mundo, el mexicano Carlos Slim, adquirirá a través de sus empresas América Móvil y Telmex, el 100% del capital que la operadora Verizon tiene de la Compañía Anónima Nacional Teléfonos de Venezuela (CANTV). La transacción valuada en cerca de 677 millones de dólares no descarta que el magnate adquiera el resto de las acciones de la compañía en un corto plazo, con lo cual sumaría más de 3 millones de clientes fijos y más de 5 millones de clientes móviles a su lista de abonados en América Latina.

Verizon Communications anunció este lunes que ha llegado a sendos acuerdos con las empresas América Móvil y Teléfonos de México (Telmex), ambas pertenecientes al empresario Carlos Slim, para vender sus operaciones de telecomunicaciones en el Caribe y en América Latina en tres transacciones separadas, por cerca de 3700 millones de dólares. De acuerdo con un comunicado de Verizon, la empresa traspasará todas las acciones y los activos que posee en República Dominicana, Puerto Rico y Venezuela, lo cual representa más de 15 millones de clientes de servicios inalámbricos, telefonía tradicional e Internet y casi 17 mil empleados en toda la región.

Aun cuando las operaciones necesitan ser aprobadas por las autoridades regulatorias en los distintos países, se pudo conocer que el precio para adquirir el 28,51 por ciento de las acciones de la Compañía Anónima Nacional Teléfonos de Venezuela (Cantv) fue fijado en 3,01 dólares por cada acción nominal, es decir 21,10 dólares por cada ADS (American Depositary Share) que Verizon posee; a fin de evitar contratiempos y soslayar las sacudidas en el mercado, la Comisión Nacional de Valores suspendió las cotizaciones de la empresa en bolsa por un período prudencial de 48 horas.

Daniel Hajj, Director de América Móvil mencionó en un comunicado que "nuestros planes de expansión regional están alineados con objetivos a largo plazo; Dentro de nuestras empresas consideramos que el potencial de sinergia que se puede lograr es más que prometedor", "con estas adquisiciones llegaremos a 110 millones de clientes en la región, además estaremos incursionando en mercados atractivos, en pleno crecimiento como los Puerto Rico, República Dominicana y Venezuela". De acuerdo con informaciones no confirmadas, Slim podría adquirir el resto de las acciones de Cantv y de Telecomunicaciones de Puerto Rico para hacerse con el control total de ambas compañías, esto incrementaría la operación comercial hasta un monto cercano a los 2 mil 500 millones de dólares.

Jaime Chico, director general de Telmex, mencionó que “esta transacción proporciona una nueva alternativa de crecimiento en la región y brinda la oportunidad de apuntalar ese crecimiento con empresas tan sólidas y con buen desempeño como Cantv". Aunque los comunicados se refieren a las operaciones en líneas generales, todavía quedan cabos sin atar como por ejemplo la participación de Cantv en la subasta para adquirir Telecom Colombia, proceso en el cual también participan Telmex y su rival regional, Telefónica de España. De hecho, algunos expertos creen que la "pelea" entre el grupo mexicano y el español se acentuará con estas adquisiciones y que podrían ser una especie de "venganza comercial" ante la oposición que promovió Telefónica para evitar la entrada de la empresa de Slim a España.

Llama la atención que Verizon es la tercera operadora telefónica estadounidense que se retira de América del Sur y Caribe en los últimos meses, (después de Bellsouth y AT&T), de hecho operadoras de otras latitudes como Telecom Italia han abandonado sus posiciones dando a paso a consorcios regionales, lo cual hace sospechar que o los mercados no generan ingresos sólidos, o la magnitud de las inversiones realizadas en un comienzo no rindieron los frutos esperados, despertando inconformidades entre los inversores. Habrá que esperar para ver cómo se desarrollan los hechos, pero lo que si es seguro es que el interés de los millonarios de la región por las empresas de telecomunicaciones parece haberse puesto de moda y en el intermedio podrían chocar con las legislaciones regulatorias que, en el caso de Venezuela, todavía no se pronuncian sobre la adquisición de Digitel por parte de la empresa Telvenco, propiedad del multimillonario empresario Oswaldo Cisneros.

Freddy E. Molina