sábado, 21 de febrero de 2009

Proveedor de servicios de Internet

Un proveedor de servicios de Internet (o ISP, por la sigla en idioma inglés de Internet Service Provider) es una empresa dedicada a conectar a Internet a los usuarios, o las distintas redes que tengan, y a dar el mantenimiento necesario para que el acceso funcione correctamente. También ofrece servicios relacionados, como alojamiento web o registro de dominios, entre otros.

Historia

Inicialmente este acceso se realizaba mayoritariamente a través de ordenadores personales dotados de módems, y utilizando como medio de transmisión las líneas de cobre usadas por la telefonía. Esto permite aprovechar la estructura de comunicaciones ya implantada por las compañías telefónicas.
Sin embargo, el desarrollo de la tecnología ha permitido que el acceso a Internet pueda realizarse desde una amplia gama de dispositivos. Los teléfonos móviles, los PDA, las PC (comunes y portátiles) y el uso de tecnologías inalámbricas de transmisión de datos (GSM, WAP, GPRS, 3G, HSDPA, Wifi, etc).
Por consiguiente, los ISP han tenido que adaptarse a las necesidades móviles de la vida actual, y asumir el reto tecnológico que esto plantea. Pero además de las conexiones telefónicas e inalámbricas, también ofrecen acceso a Internet a través de las líneas de televisión por cable y de las transmisiones de la nueva televisión digital terrestre (TDT).
Incluso se ofrecen servicios (aún en fase de pruebas) que dan acceso a Internet mediante la red eléctrica; se conocen por las siglas PLC.
Inicios
Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP, y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, en los Estados Unidos.

Ø Los ISP en América Latina

En los últimos cinco años la región ha mostrado un sostenido aumento en las conexiones de alta velocidad, esto debido a su precio cada vez más competitivo (gracias a la incorporación de nuevos actores) que han irrumpido en los mercados locales para romper con el monopolio en telecomunicaciones, que ha caracterizado por décadas a la mayor parte de los países de la región.
Países como Venezuela, Panamá, Chile, Argentina, Colombia, Brasil y México son los que mayor desarrollo han tenido en las conexiones de banda ancha. Un buen ejemplo de los beneficios de la existencia de gran cantidad de ISP es Chile, donde en 2005 las conexiones de alta velocidad (ADSL, Cable, inalámbrico) superaron a las conexiones por marcado telefónico, lo que representó un hito en la región.

· Banda ancha en Argentina
UOL Sinectis (Argentina): (ADSL, Cablemódem, Dial-up, Wireless, HDLC y Lan2Lan).
Cablevisión: Fibertel (Cablemódem) (actualmente también es parte del Grupo Clarín).WEl Max: 20 M
Grupo Clarín: Ciudad Internet (Dial-up), Flash (Cablemódem)
Grupo Servicios Junín: Acerca (ADSL)
Telecom Argentina: Arnet (Dial-up), Arnet Highway (ADSL) y Personal (por red celular tanto GPRS, EDGE o HSDPA)
Telefónica de Argentina: Advance (Dial-up) y Speedy (ADSL)
América Móvil: Telmex (Inalámbrico fijo) y Claro Argentina (por red celular, tanto GPRS como EDGE)
IPLAN Telecomunicaciones (VDSL2) y (Long Reach Ethernet)
Gigared (Cablemódem)
Magdalena Virtual (inalámbrico)
Redwan wisp. (proveedor de Internet inalámbrico)

· Banda ancha en Chile
En el mercado chileno hay cuatro modalidades de acceso a Internet de alta velocidad para consumidores residenciales:
ADSL: ha demostrado ser el mejor medio para transmitir los datos hasta los hogares, debido a la rápida implementación que permite esta tecnología y a que no comparte canal con otros usuarios. En el mercado existen tres redes: ADSL, Megavía, IFX y Telefónica del Sur (en el sur del país). ISPs que utilizan ADSL: Entel, Terra, Telmex, Optic y GTD Manquehue, IFX Networks, Netline, Tutopia, Telsur. Ofrecen conexiones desde los 300 Kbps hasta los 8 Mbps (8.192 Kbps). En el caso de Telefónica del Sur ofrece hasta 20Mbps, de los cuales 15Mbps son para el servicio de Televisión vía IP y 5Mbps son para el acceso a Internet.
Cablemódem: en Chile existen varias compañías que ofrecen esta modalidad de acceso, entre ellas CMET, VTR e InetAmerica. Ha demostrado ser una alternativa competitiva, que ofrece ventajas como baja latencia y movilidad relativa, pero presenta serios problemas en lo relativo al ancho de banda en horas de alta concurrencia. En el último tiempo VTR ha sido el centro de reclamos de varios usuarios por sus prácticas que limitan el potencial de sus conexiones, a través de la aplicación de técnicas como el Traffic shaping y el bloqueo de puertos, específicamente los de programas P2P como Bittorrent. El ancho de banda fluctúa entre los 600 kbps y 8 Mbps. Además de un plan de 15 Mbps, que sin embargo sólo incluye 50GB de tráfico mensual; pasado este límite, el ancho de banda baja a 4Mbps. Telmex también está instalando su red HFC en algunas comunas de Santiago, pero aún no hay información precisa sobre si ofrecerá Internet vía este medio.
Inalámbrico fijo (WIMAX): lo ofrece Entel Internet, a través de Will, una tecnología que no ha funcionado de buena forma en Chile. Con tasas de transferencia de hasta 1024 kbps.
En el 2007 se integró el proveedor Telmex que ofrece enlaces desde 400Kbps hasta 1024Kbps.
A través de celular (EDGE, GPRS): lo ofrece Movistar, Claro Chile y Entel PCS con tasas de transferencia de hasta 64 kbps en GPRS, 150 kbps en EDGE y hasta 2.0 Mbps con tecnología 3.5G (HSDPA). La Cobertura de 3G ya no es tan reducida: Entel PCS, Movistar y Claro poseen en la Región Metropolitana y las principales ciudades del país. Y existe una limitación de hasta 3GB mensuales para navegar a alta velocidad, después de ese tráfico baja a velocidad EDGE, dependiendo del plan.
FTTH (Fibra a la casa): ManquehueNET ofrece conexiones FTTH en algunos sectores de Vitacura, con anchos de banda simétricos de 100 Mbps nacional y 5 Mbps internacional. Sin embargo, su cobertura es muy limitada.

· Banda ancha en México
En México el acceso a Internet por banda ancha predominantemente es a través de ADSL y Cable.
ADSL: las compañías que ofrecen esta modalidad son: Telmex, Alestra, Terra y Maxcom. Telmex lo ofrece con su servicio Prodigy Infinitum, ATT y Terra usan la red de Telmex para dar su servicio. Las velocidades de conexión van desde 512 Kbps hasta 4 Mbps, y los precios van desde los 27 dólares hasta los 109 dólares.
Cable: Las compañías que ofrecen el servicio son: Cablevisión, Cablemas, con Cablered y Cablevisión Monterrey con Intercable.
Además de esas dos compañías que ofrecen Internet por cable, se encuentra Megacable (en la zona centro del país) que brinda también Internet de banda ancha, llamada Megared, Telecable y Cablecom.
Inalámbrico fijo: lo ofrecen Cablevisión, Telmex, Axtel y MVS.
A través de celular: Movistar ofrece el servicio mediante GPRS y EDGE, y Telcel y Iusacell además sobre 3G.
Conexión 3G a través de la computadora: Iusacell ofrece un servicio de Internet 3G desde hace 5 años y Telcel desde el 2008. Se espera que Movistar entre a esta rama en el 2009.
A través de Satélite: terminales móviles y fijas go-to Internet Satelital Proveedor de comunicaciones móviles y fijas en México Jaba Networks Proveedor de comunicaciones móviles y fijas mundiales por satélite. y Pegaso Banda Ancha.
Internet inalámbrico: E-Go de MVS ofrece el servicio de Internet inalámbrico; además, tiene acuerdos con Alestra (Masternet) y Axtel (antes Avantel con su servicio Netvoice) para usar su infraestructura. WideLAN es una empresa con más de seis años de experiencia en el servicio de Internet inalámbrico en la ciudad de Tepic, en el estado de Nayarit. Accesa Comunicaciones es una empresa que ofrece el servicio de Internet inalámbrico en la ciudad de Mérida, en el estado de Yucatán, México, en zonas donde nadie más llega, sin necesidad de línea telefónica o cables.

· Banda ancha en Perú
ADSL: las empresas que ofrecen esta modalidad son: Telmex y Telefónica, Optical IP, Americatel.
Cable: la única empresa que ofrece este servicio es Star Global Com, localizada en la ciudad de Arequipa, que ofrece su servicio de Internet vía cable.
Inálambrico fijo: lo ofrece Emax solo para Lima Metropolitana.
A través de celular: los que ofrecen el servicio son Claro, Movistar via GPRS GSM y Nextel.
Internet satelital: Comsat, Gilat, Impsat y Conexia, empresas que ofrecen el servicio de Internet via satélite en toda la República del Perú en zonas donde nadie más llega, sin necesidad de línea telefónica o cables, sólo con un Vsat con visión a los satélites SATMEX, HISPASAT, AMC y otros.
A través DialUp: los que ofrecen Terra y Telmex que ofrece este servicio de forma gratuita en Arequipa, Cusco, Lima y La Libertad.
Proveedor de Internet Satelital paYWEYWETYWT34RT2CGH3Y6V JJVB6 VY4645GERRVERVRFVERFVEF234TV3TV6UYH7JH67YT4ra el Perú u SudAmérica
Proveedor de servicios de Internet Satelital para zonas rurales

· Banda ancha en Uruguay
ADSL: las empresas que ofrecen esta modalidad son: Antel Data (Antel), Dedicado y Movistar (Telefónica).
Cable: la única empresa que brinda este servicio es Antel Data, empresa estatal de telecomunicaciones que ofrece su servicio de Internet vía cable.
Inálambrico fijo: este servicio lo ofrece Dedicado, que es es la mayor compañía nacional privada de telecomunicaciones del Uruguay.
A través de celular: servicio ofrecido por Movistar, Claro, Ancel via HSDPA que funciona sobre 3.5 G y GSM/GPRS/EDGE; en caso de estar fuera de la cobertura 3.5 G, este servicio está limitado a las ciudades de Montevideo, Colonia del Sacramento y Punta del Este.

· Banda ancha en Ecuador
Panchonet: empresa privada, ofrece el servicio de Internet banda ancha e Internet Dial up, para Quito, Los Valles y Guayaquil.
Satnet: empresa privada, ofrece el servicio de Internet banda ancha via cablemódem para varias ciudades del país: Guayaquil, Quito, Cuenca, Ambato e Ibarra.
Andinanet: empresa telefónica estatal concesionada que provee servicio ADSL a usuarios domésticos y empresariales.
Telconet: empresa privada con servicio a Quito, Guayaquil y Cuenca.
Interactive: empresa privada que ofrece acceso satelital, por tarjeta prepago y por banda ancha, además de otros servicios relacionados.
Pacifictel: empresa estatal concesionada que ofrece servicio ADSL a la región 2 del país.

· Banda ancha en Venezuela
CANTV: empresa estatal, ofrece el servicio de Internet banda ancha, Internet Dial up y últimas millas vía fibra para toda Venezuela].
IFX Networks de Venezuela C.A.: empresa privada, ofrece servicios de Internet banda ancha, Dial up, servicios de VPN/MPLS y servicios de hosting para toda Venezuela.
· Banda ancha en Colombia
Telmex Colombia: empresa privada, ofrece servicio de Internet de banda ancha, teléfono ilimitado y televisión por cable.
Une: empresa privada, ofrece servicio de Internet banda ancha, telefonía ilimitada y televisión.
Telefónica Colombia: empresa privada, ofrece servicio de Internet, telefonía y televisión vía satélite.

APA:
AUTOR: Wikipedia TITULO: Proveedores de Servicio a Internet
PRODUCTOR: Segura Téllez Griselda FECHA: 20-02-09
URL: http://es.wikipedia.org/wiki/Proveedor_de_servicios_de_Internet

COMENTARIO:
Esta informacion me sirve en la vida diaria ya que hay una gran variedad de proveedores que nos dan acceso a una red de internet y podemos elegir la que mas nos convenga.
COSTOS DE ANUNCIO EN INTERNET

Servicios de Publicidad y Marketing en Internet
¡Aumente el tráfico de visitantes a su sitio web y tenga una mayor presencia en Internet de manera rápida y sencilla con Google AdWords™ !
Sus anuncios llegarán a una amplia audiencia en busca de su producto o servicio.
El propósito de AdWords es ofrecer la publicidad más efectiva posible a todas las empresas, sea cual sea su tamaño.
Cuando los usuarios realizan en Google una búsqueda tecleando una de sus palabras clave, su anuncio aparecerá junto a los resultados de la búsqueda.
Póngase en contacto con nosotros, y con mucho gusto le ayudaremos a diseñar una estrategia de promoción efectiva que se ajuste a sus necesidades; con el respaldo de la mejor tecnología del mundo y el mejor servicio en México.
¡Anúnciese ahora!


Seleccione su inversión publicitaria
Inversión de $750.00 (precios en pesos mexicanos más I.V.A.)
Inversión de $1,500.00 (precios en pesos mexicanos más I.V.A.)
Inversión de $3,000.00 (precios en pesos mexicanos más I.V.A.)
Inversión de $5,000.00 (precios en pesos mexicanos más I.V.A.)
Inversión de $10,000.00 (precios en pesos mexicanos más I.V.A.)
Inversión de $20,000.00 (precios en pesos mexicanos más I.V.A.)

APA:
AUTOR: SUEMPRE TITULO: Costos de Anuncios en internet
PRODUCTOR: Segura Téllez Griselda FECHA: 20-02-09
URL: http://www.suempresa.com/adwords/

COMENTARIO:

Esta informacion me sirve de manera profecional ya que, si término mi carrera y sigo estudiando puedo emprender un pequeño negocio y una manera de darlo a conocer es via internet.
IPv6

El protocolo IPv6 es una nueva versión de IP (Internet Prococol), diseñada para reemplazar a la versión 4 (IPv4) RFC 791, actualmente en uso.
Diseñado por Steve Deering de Xerox PARC y Craig Mudge, IPv6 está destinado a sustituir a IPv4, cuyo límite en el número de direcciones de red admisibles está empezando a restringir el crecimiento de Internet y su uso, especialmente en China, India, y otros países asiáticos densamente poblados. Pero el nuevo estándar mejorará el servicio globalmente; por ejemplo, proporcionará a futuras celdas telefónicas y dispositivos móviles con sus direcciones propias y permanentes. Al día de hoy se calcula que las dos terceras partes de las direcciones que ofrece IPv4 ya están asignadas.
IPv4 posibilita 4.294.967.296 (232) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada coche, teléfono, PDA, etcétera. En cambio, IPv6 admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones) direcciones —cerca de 3,4 × 1020 (340 trillones) direcciones por cada pulgada cuadrada (6,7 × 1017 o 670 mil billones direcciones/mm2) de la superficie de La Tierra.
Propuesto por el Internet Engineering Task Force en 1994 (cuando era llamado "IP Next Generation" o IPng), la adopción de IPv6 por parte de Internet es menor, la red todavía está dominada por IPv4. La necesidad de adoptar el nuevo protocolo debido a la falta de direcciones ha sido parcialmente aliviada por el uso de la técnica NAT. Pero NAT rompe con la idea originaria de Internet donde todos pueden conectarse con todos y hace difícil o imposible el uso de algunas aplicaciones P2P, de voz sobre IP y de juegos multiusuario. Un posible factor que influya a favor de la adopción del nuevo protocolo podría ser la capacidad de ofrecer nuevos servicios, tales como la movilidad, Calidad de Servicio (QoS), privacidad, etc.
Otra vía para la popularización del protocolo es la adopción de este por parte de instituciones. El gobierno de los Estados Unidos ha ordenado el despliegue de IPv6 por todas sus agencias federales para el año 2008.
IPv6 es la segunda versión del Protocolo de Internet que se ha adoptado para uso general. También hubo un IPv5, pero no fue un sucesor de IPv4; mejor dicho, fue un protocolo experimental orientado al flujo de streaming que intentaba soportar voz, video y audio.

Ø Los cambios
Los cambios de IPv4 a IPv6 recaen principalmente en las siguientes categorías:

· Capacidad extendida de direccionamiento
IPv6 incrementa el tamaño de dirección IP de 32 bits a 128 bits, para dar soporte a más niveles de direccionamiento jerárquico, un número mucho mayor de nodos direccionables, y una autoconfiguración más simple de direcciones. La escalabilidad del enrutamiento multicas se mejora agregando un campo "ámbito" a estas direcciones. Y se define un nuevo tipo de dirección llamada "dirección envío a uno de", usado para enviar un paquete a cualquiera de un grupo de nodos.

· Simplificación del formato de cabecera
Algunos campos de la cabecera IPv4 se han sacado o se han hecho opcionales. Los motivos de esto son reducir el costo del caso común en el proceso los paquetes y para ahorrar ancho de banda.

· Soporte mejorado para las extensiones y opciones
Los cambios en la manera en que se codifican las opciones de la cabecera IP permiten un reenvío más eficiente, límites menos rigurosos en la longitud de opciones, y mayor flexibilidad para introducir nuevas opciones en el futuro.

· Capacidad de etiquetado de flujos
Una nueva capacidad se agrega para permitir el etiquetado de paquetes que pertenecen a "flujos" de tráfico particulares para lo cuál el remitente solicita tratamiento especial, como la calidad de servicio no estándar o el servicio en "tiempo real".

· Capacidades de Autenticación y Privacidad
IPv6 incluye la especificación de extensiones que proveen autenticación, integridad, y (opcionalmente) confidencialidad de los datos.

· Direccionamiento IPv6
El cambio más grande de IPv4 a IPv6 es la longitud de las direcciones de red. Las direcciones IPv6, definidas en el RFC 2373 y RFC 2374, son de 128 bits; esto corresponde a 32 dígitos hexadecimales, que se utilizan normalmente para escribir las direcciones IPv6, como se describe en la siguiente sección.
El número de direcciones IPv6 posibles es de 2128 ≈ 3.4 x 1038. Este número puede también representarse como 1632, con 32 dígitos hexadecimales, cada uno de los cuales puede tomar 16 valores (véase combinatoria).
En muchas ocasiones las direcciones IPv6 están compuestas por dos partes lógicas: un prefijo de 64 bits y otra parte de 64 bits que corresponde al identificador de interfaz, que casi siempre se genera automáticamente a partir de la dirección MAC de la interfaz a la que está asignada la dirección.

· Notación para las direcciones IPv6
Las direcciones IPv6, de 128 bits de longitud, se escriben como ocho grupos de cuatro dígitos hexadecimales. Por ejemplo,

APA:
AUTOR: Wikipedia TITULO: IPv6
PRODUCTOR: Segura Téllez Griselda FECHA: 20-02-09
URL:http://es.wikipedia.org/wiki/IPv6

COMENTARIO:
Esta informacion me sirve de manera profecional ya que la tecnología va cambiando continuamente al igual que los protocolos que utiliza.
World Wide Web (WWW)

En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.

Ø Funcionamiento de la Web

La visualización de una página web de la World Wide Web normalmente comienza tecleando la URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla. Cuando se utiliza bastante en empresas
El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.
Esta colección de recursos útiles y relacionados, interconectados a través de enlaces de hipertexto, es lo que ha sido denominado como 'red' (web, en inglés) de información. Al trasladar esta idea a Internet, se creó lo que Tim Berners-Lee llamó WorldWideWeb (un término escrito en CamelCase, posteriormente desechado) en 1990.[1]
si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable que no se vuelvan a recuperar los datos del servidor web de la forma en que se explicó en el apartado anterior. Por defecto, los navegadores almacenan en una caché del disco duro local todos los recursos web a los que el usuario va accediendo. El navegador enviará una petición HTTP sólo si la página ha sido actualizada desde la última carga, en otro caso, la versión almacenada se reutilizará en el paso de renderizado para agilizar la visualización de la página.
Esto es particularmente importante para reducir la cantidad de tráfico web en Internet. La decisión sobre la caducidad de la página se hace de forma independiente para cada recurso (imagen, hoja de estilo, ficheros JavaScript, etc, además de para el propio código HTML). Sin embargo en sitios de contenido muy dinámico, muchos de los recursos básicos sólo se envían una vez por sesión. A los diseñadores de sitios web les interesa reunir todo el código CSS y JavaScript en unos pocos ficheros asociados a todo el sitio web, de forma que pueden ser descargados en las cachés de los usuarios y reducir así el tiempo de carga de las páginas y las peticiones al servidor.
Hay otros componentes de Internet que pueden almacenar contenido Web. El más común en la práctica son los frecuentes firewalls de empresa y académicos donde se pueden almacenar los recursos web solicitados por un usuario para el beneficio de todos los que estén conectados a ese firewall. Algunos buscadores como Google, Yahoo!, GlowBoom o AltaVista también almacenan contenidos de sitios Web.
Aparte de las utilidades creadas en los servidores Web que pueden determinar cuándo los ficheros físicos han sido actualizados, los diseñadores de páginas web generadas dinámicamente pueden controlar las cabeceras HTTP enviadas a los usuarios, de forma que las páginas intermedias o sensibles a problemas de seguridad no sean guardadas en caché. Por ejemplo, en los bancos Online y las páginas de noticias se utiliza frecuentemente este sistema.
Esto nos ayuda a comprender la diferencia entre los verbos HTTP 'GET' y 'POST' - los datos solicitados con GET pueden ser almacenados en la caché, si se cumplen las otras condiciones, mientras que con los datos obtenidos después de enviar información al servidor con POST normalmente no se puede.

APA:
AUTOR: Wikipedia TITULO: World Wide Web
PRODUCTOR: Segura Téllez Griselda FECHA: 20-02-09
URL: http://es.wikipedia.org/wiki/World_Wide_Web



COMENTARIO:
Esto me sirve de manera profecional ya que la www es algo que cada vez que usamos internet aparece para llevarnos ala informacion o lugar que queremos.
NODO

En informática, un nodo es "Punto de intersección o unión de varios elementos que confluyen en el mismo lugar". Ejemplo:
· En redes de computadoras cada una de las máquinas es un nodo, y si la red es Internet, cada servidor constituye también un nodo.
En estructuras de datos dinámicas un nodo es un registro que contiene un dato de interés y al menos un puntero para referenciar (apuntar) a otro nodo. Si la estructura tiene sólo un puntero, la única estructura que se puede construir con el es una lista, si el nodo tiene más de un puntero ya se pueden construir estructuras más complejas como árboles o grafos.

APA:
AUTOR: Wikipedia TITULO: Nodo
PRODUCTOR: Segura Téllez Griselda FECHA: 20-02-09
URL: http://es.wikipedia.org/wiki/Nodo_(inform%C3%A1tica)

COMENTARIO:
Esta informacion me sirve ya que no sabia la definición de está palabra.
NICK


Nick
Abreviatura de "nickname", "apodo" en inglés. Denomina al nombre que cada usuario adapta en un chat, que no depende más que de la voluntad del usuario. Noticias, grupo de. Véase Grupo de noticias.

APA:
AUTOR: Navactiva TITULO: Nick
PRODUCTOR: Segura Téllez Griselda FECHA: 20-02-09
URL: www.navactiva.com/web/es/atic/doc/glosario/internet/

COMENTARIO:
Esta informacion me sirve de manera profecional y en la vida diaria ya que, utilizar el correo o chat es una herramienta que utilizamos para comunicarnos con las personas y además mediante estos medios podemos compartir informacion.
LAS SUPER COMPUTADORAS DEL MUNDO

Ø Aitzaloa

Aiztaloa
Universidad Autonoma Metroplitana
Localización
Distrito Federal (México), México
Fecha
2008
Arquitectura
intel (Lufac)
SO
Linux
Procesadores
2160
Memoria
4326 GB
Potencia
18.4 TFlops teraFLOPS
Puestos en la lista TOP500:
Actual
>500
Mejor
225
Sitio web
http://supercomputo.izt.uam.mx/index.php?id=Cluster_Aitzaloa/

Aitzaloa (del náhuatl Aitia [donde se llevan a cabo varias tareas] y Zalohua [donde se aprende]) es la supercomputadora que está ubicada en la ciudad de México, en la Universidad Autónoma Metropolitana, campus Iztapalapa estando en funcionamiento desde el 30 de Noviembre 2008 forma parte del Laboratorio de Supercómputo y Visualización en Paralelo (LSVP). a División de Ciencias Básicas e Ingeniería (DCBI) de la Universidad Autónoma Metropolitana Unidad Iztapalapa (UAM-I) y que entró en funcionamiento a finales del año 1993.
Esta Supercomputadora fue creada como parte de la celebración por el 50 Aniversario de la Computación en México.[1]

· Configuración
“Aitzaloa” contiene 2160 núcleos de procesamiento (en 540 procesadores Quad Core de Intel) con una capacidad de 18.48 Teraflops, 4320 GB de RAM
Se ubica como la más potente en América Latina, posicionada en el lugar número 222 de las 500 que existen en todo el mundo

Ø Altamira

Altamira
IFCA (CSIC - UC)
Localización
Cantabria, España
Fecha
2007
Arquitectura
PPC64 (IBM PowerPC 970)
Procesadores
512
Memoria
1024 GB
Potencia
2994.04 GFlops
Puestos en la lista TOP500:
Actual
>500
Mejor
415

El supercomputador Altamira es uno de los seis nodos iníciales que forman parte de la Red Española de Supercomputación. Este nodo se encuentra situado en la Universidad de Cantabria.
· Configuración
El sistema está compuesto de los nodos JS20 de IBM utilizados en el MareNostrum original alcanzado una potencia de 4,5 Tflops que lo sitúa en el puesto 412 del ránking top500[2] empatado con los 4 sitios iniciales planificados por la RES. Estos nodos utilizan un sistema operativo SUSE.

Ø Blue Gene

Blue Gene es un supercomputador desarrollado por IBM que se convirtió en 2005 en el ordenador más rápido del mundo. Está instalado en el laboratorio estadounidense Lawrence Livermore. Esta máquina se dedicará principalmente al almacenamiento y transmisión de datos entre diversos sistemas informáticos. Gracias a esta computadora, EE. UU. Volvió a encabezar la lista de las máquinas más potentes del mundo, arrebatándole el título a Japón, que lo tenía desde 2002 con el Earth Simulator.

Ø CDC 6600

El CDC 6600 fue la primer supercomputadora de la historia. Diseñada en 1965 por Konrad Zuse y Seymour Cray y fabricada por Central Data Corporation. Fue una versión mejorada del ordenador CDC 6400.
El CDC 6600 posee una CPU de 60 bits y 10 unidades periféricas de procesamiento (PPUs) y se utiliza un marcador para el plotting de las órdenes.

Ø Colossus

Las máquinas Colossus fueron primitivos dispositivos calculadores usados por los británicos para leer las comunicaciones cifradas alemanas durante la Segunda Guerra Mundial. Colossus fue uno de los primeros computadores digitales.
La máquina Colossus fue diseñada originalmente por Tommy Flowers en la Post Office Research Station (Estación de Investigación de la Oficina Postal), Dollis Hill. El prototipo, Colossus Mark I, entró en funcionamiento en Bletchley Park desde febrero de 1944. Una versión mejorada, el Colossus Mark II se instaló en junio de 1944 en gran Bretaña, y se llegaron a construir unos diez Colossus hasta el final de la guerra.
Las máquinas Colossus se usaron para descifrar los mensajes cifrados, que se interceptaban de las comunicaciones de la Alemania Nazi, usando la máquina Lorenz SZ40/42. Colossus comparaba dos flujos de datos, contando cada coincidencia basada en una función programable booleana. El mensaje cifrado se leía a gran velocidad a través de una cinta de papel. El otro flujo de datos era generado internamente, y era una simulación electrónica de la máquina de Lorenz en varias combinaciones. Si el número de coincidencias para una combinación era superior a una cierta cantidad, la salida era escrita en una máquina de escribir eléctrica.

Ø Cray-1

Cray-1
Localización
California, Estados Unidos
Fecha
1976
Arquitectura
Vectorial de 64 bits

El Cray-1 era un superordenador diseñado por un importante número de informáticos encabezados por Seymour Cray para Cray Research. El primer sistema Cray-1 fue instalado en el laboratorio nacional de Los Álamos en 1976. Es uno de los supercomputadores más conocidos y exitosos de la historia, y de los más potentes en su época.
Anunciado en 1975, desató una escalada de ofertas por parte del Laboratorio Nacional de Los Álamos y el Lawrence Livermore, ganando finalmente el primero.
A lo largo de los años, la empresa Cray Research esperaba vender una docena de superordenadores Cray-1, a un precio de entre 5 y 8 millones de dólares, pero finalmente vendió más de ochenta. La máquina dio la fama a Seymour Cray y a Cray Research, siendo continuada en diversas versiones hasta los años 90.
Como características técnicas, la primera versión (Cray-1A) operaba con procesadores vectoriales a 80 Mhz, era un sistema de 64-bits y pesaba 5.5 toneladas, incluyendo el sistema de refrigeración por freón.

Ø Cray-2

La Cray-2 es una supercomputadora vectorial realizada por Cray Research, Inc. (CRI). Fue la computadora más veloz en el mundo cuando fue lanzada, remplazando a la X-MP (también de CRI) en ese puesto. Fue desplazada del primer puesto por la ETA-10G en 1990. Sólo realiza cálculos matemáticos muy complejos y operaciones lógicas de alto nivel.

Ø Deep Blue

Deep Blue fue una computadora de IBM que jugaba al ajedrez. Su nombre se podría traducir al español como "Azul Oscuro" o "Azul Profundo", ubicada en Estados U nidos en 1996 y su arquitectura es vectorial..
La segunda de las traducciones es más acertada, ya que se emplea un algoritmo de inteligencia artificial de la familia Minimax. La fuerza de juego de estos programas de juego automático es mayor cuanto mayor sea la profundidad (número de movimientos futuros) hasta la que llega la exploración, y por tanto mayor el número de nodos. De este modo, el nombre Deep Blue es un juego de palabras que relaciona el azul (color corporativo de IBM) con la gran profundidad de exploración gracias a la potencia de su hardware.
Deep Blue fue la primera computadora que venció a un Campeón del Mundo vigente, Garry Kasparov, con un ritmo de juego lento. Esto ocurrió el 10 de febrero de 1996, en una memorable partida. Sin embargo, Kasparov ganó 3 y empató 2 de las siguientes partidas, derrotando a Deep Blue por 4-2. El encuentro concluyó el 17 de febrero de 1996.

Ø Earth Simulator


Earth Simulator
The Earth Simulator Center
Localización
Yokohoma, Japón
Fecha
Marzo del 2002
Arquitectura
?
SO
Super-UX
Procesadores
5120
Memoria
10 TeraBytes
Potencia
35860 GFlops
Puestos en la lista TOP500:
Actual
30
Mejor
1
Sitio web
http://www.jamstec.go.jp/esc/

Earth Simulator, literalmente, Simulador de la Tierra es un superordenador desarrollado por las agencias japonesas NASDA, JAERI y JAMSTEC y en operación desde finales del año 2001, para aplicaciones de carácter científico. Es utilizado principalmente en simulaciones climáticas y de convección en el interior terrestre.
Hasta finales del año 2003, ostentó el título de superordenador más rápido del mundo, con una capacitad computacional de más de 35 Teraflops.
5120 CPUs especiales de 500 MHz fabricados por NEC Corporation
640 nodos, con 8 procesadores cada uno
41 TFLOPS (8 GFLOPS por CPU)
10 TB de RAM (2 GB, 4 módulos de 512 MB FPLRAM, por CPU)
memoria compartida en cada nodo
switch crossbar 640 × 640 entre los nodos
ancho de banda de 16 GB/s entre los nodos
consumo de energía de 20 kVA por nodo
sistema operativo Super-UX, basado en Unix

Ø Finisterrae

Finisterrae
CESGA
Localización
Santiago de Compostela (La Coruña), España
Fecha
2007
Arquitectura
Itanium 64 (Intel)
SO
Linux
Procesadores
2400
Memoria
19584 GB
Potencia
14010 GFlops
Puestos en la lista TOP500:
Actual
428
Mejor
100
Sitio web
http://www.cesga.es/

'Finisterrae es el nombre del supercomputador instalado en el CESGA de Santiago de Compostela, el tercero más potente de España tras los supercomputadores MareNostrum (BSC) y Magerit (CeSViMa).[1] Se trata de un clúster HP con una potencia de pico de 15 Teraflops. Este proyecto está impulsado por la Junta de Galicia y el Consejo Superior de Investigaciones Científicas (CSIC)
El proyecto se inició en el año 2006 y se estima que se complete el proyecto en el 2010 cuando funcione a pleno rendimiento y proporcione servicios de cálculo intensivo y comunicaciones avanzadas.
· Arquitectura
El supercomputador se compone de 142 nodos HP RX7640, cada uno de ellos con 8 procesadores Intel Itanium 2 dual-core distribuidos en dos celdas con 4 procesadores y una memoria de 64GB cada una. Los nodos están unidos por una red de interconexión infiniband con un ancho de banda teórico de 16 Gbps.
Ocupa una superficie de 140 metros cuadrados, pesa 33 toneladas y cuenta con 85 kilómetros de cable.


Ø Kan Balam

Kan Balam
Universidad Nacional Autónoma de México
Localización
-, México
Fecha
2007
Arquitectura
AMD64 (AMD Opteron)
SO
Linux
Procesadores
1368
Memoria
3016 GB
Potencia
5090 GFlops
Puestos en la lista TOP500:
Actual
>500
Mejor
126
Sitio web
http://www.super.unam.mx/

Kan Balam (también conocido como KanBalam) es un clúster de computadoras Hewlett-Packard, con capacidad (pico) de 7.113 teraflops, siendo la número uno en América Latina hasta noviembre de 2007.
Esta computadora está ubicada en la ciudad de México, en el campus principal de la Universidad Nacional Autónoma de México, estando en funcionamiento desde el 16 de enero de 2007.
Entre los objetivos de este equipo se encuentra un proyecto de enfrentar la fuga de cerebros que sufre el país, intentando repatriar a aquellos investigadores que se encuentren trabajando en el extranjero, por falta de infraestructura. Las principales ramas beneficiadas con esta computadora son la Astrofísica, la física de partículas, la química cuántica, la geología y, principalmente, la ingeniería sísmica. También será usada para realizar estudios del clima y contaminación y estará a disposición de instituciones públicas y privadas

Ø La Palma

La Palma
Instituto de Astrofísica de Canarias
Localización
La Palma, España
Fecha
2007
Arquitectura
PPC64 (IBM PowerPC 970)
Procesadores
512
Memoria
1024 GB
Potencia
2994.04 GFlops
Puestos en la lista TOP500:
Actual
>500
Mejor
413

El supercomputador La Palma es uno de los seis nodos que forman parte de la Red Española de Supercomputación en el año 2007. Este nodo se encuentra situado en el Instituto de Astrofísica de Canarias.

Ø Magerit

Localización
Comunidad de Madrid, España
Fecha
2006
Arquitectura
PPC64 (IBM PowerPC 970)
SO
Linux (SLES9)
Procesadores
2408
Memoria
4816 GB
Potencia
15955.2 GFlops
Puestos en la lista TOP500:
Actual
336
Mejor
34
Sitio web
http://www.cesvima.upm.es

Magerit es el nombre del superordenador español que ha alcanzado el segundo mejor puesto en la lista TOP500 (34º, en noviembre de 2006).[1] Este equipo pertenece a la Universidad Politécnica de Madrid y está instalado en el Centro de Supercomputación y Visualización de Madrid situado en el Parque Científico y Tecnológico de la UPM.
En el momento de su puesta en funcionamiento, alcanza el puesto 2º de España, 9º de Europa y 34º del mundo en la lista TOP500.[2] Actualmente, es el segundo supercomputador completamente operativo destinado a uso científico más potente de España.
El nombre Magerit proviene de los primeros nombres del asentamiento del cual surgió el actual Madrid. Aunque su origen no está claro su significado hace referencia a la abundancia de agua en la zona (sería algo como "lugar de agua", "cauce de agua", "abundancia de agua", "madre de agua" o "tierra rica en agua").

Ø MareNostrum

Localización
Barcelona, España
Fecha
2006
Arquitectura
PPC64 (IBM PowerPC 970)
SO
Linux (SLES9)
Procesadores
10240
Memoria
20480 GB
Potencia
63830 GFlops
Puestos en la lista TOP500:
Actual
40
Mejor
5
Sitio web
http://www.bsc.es

MareNostrum es el nombre del superordenador más potente de España según la lista TOP500. Su mejor puesto dicha lista es el quinto alcanzado en noviembre de 2006.[1]
Actualmente está situado en la posición número 40 del escalafón mundial según el diario La Vanguardia del 30 de noviembre de 2008. Esto se debe a que en los dos últimos años no se ha renovado la arquitectura del sistema.
Se puso en marcha el 12 de abril de 2005 presentado por la empresa IBM y por la ministra española de Educación y Ciencia María Jesús San Segundo. Desde entonces se utiliza en la investigación del genoma humano, la estructura de las proteínas y en el diseño de nuevos medicamentos, entre otros. Su uso está disponible para la comunidad científica nacional e internacional, contolada por un comité de asignación que asigna tiempo de cómputo en función de la valía de los proyectos a realizar.
Mare Nostrum ('mar nuestro' en latín) es el nombre que los romanos usaban para nombrar al mar Mediterráneo. Fue elegido no sólo por el lugar sino también para representar la gran potencia de este recurso informático.

Ø Picasso

Picasso
Universidad de Málaga
Localización
Málaga, España
Fecha
2007
Arquitectura
PPC64 (IBM PowerPC 970)
Procesadores
512
Memoria
1024 GB
Potencia
2994.04 GFlops
Puestos en la lista TOP500:
Actual
>500
Mejor
413

El supercomputador Picasso es uno de los seis nodos que forman parte de la Red Española de Supercomputación en el año 2007. Este nodo se encuentra situado en la Universidad de Málaga.

Ø IBM Roadrunner

Roadrunner
Laboratorio Nacional Los Álamos
Localización
Nuevo México, Estados Unidos
Fecha
2008
Arquitectura
Mixta PowerXCell 8i y AMD Opteron
SO
Linux (RHES)
Procesadores
12000 PowerXCell 8i / 6.912 Opteron
Memoria
103,6 TB
Potencia
1,026 petaflops
Puestos en la lista TOP500:
Actual
1
Mejor
1
Sitio web
http://www.lanl.gov/roadrunner/

Roadrunner («correcaminos», en recuerdo del ave oficial del estado de Nuevo México) es una supercomputadora del Laboratorio Nacional Los Álamos en Nuevo México. Ha sido diseñado conjuntamente por IBM y el personal del laboratorio y es actualmente el supercomputador más rápido, diseñado para un rendimiento óptimo de 1,026 petaflops, alcanzado en junio de 2008.[1]
Está equipado con más 12.000 procesadores tipo PowerXCell 8i mejorados, diseñados originalmente para la videoconsola Sony Playstation 3, colocados en paralelo y 6.912 procesadores Opteron de AMD, unidos mediante 92 km de fibra óptica en un sistema triblade con InfiniBand. En total ocupa aproximadamente 1.100 m2.[2]
El Roadrunner funciona bajo el sistema operativo Red Hat Enterprise Linux y el software de computación distribuida xCAT.[3]
Con un consumo estimado de tres megavatios, su coste fue de 133 millones de dólares. Fue instalado en un principio en el centro de IBM en Poughkeepsie (Nueva York), para después ser trasladado al Laboratorio Nacional Los Álamos en Nuevo México, donde se dedicará a actuar como patrón de seguridad del arsenal de armas nucleares de Estados Unidos, además de al estudio de problemas relacionados con el clima, la astronomía o la genómica.[4]

Ø Supercomputador CaesarAugusta

CaesarAugusta

Laboratorio de Supercomputación del BIFI
Localización
Zaragoza, España
Fecha
2007
Arquitectura
PPC64 (IBM PowerPC 970)
Procesadores
512
Memoria
1024 GB
Potencia
2994.04 GFlops
Puestos en la lista TOP500:
Actual
>500
Mejor
417

El supercomputador CaesarAugusta es uno de los seis nodos que forman parte de la Red Española de Supercomputación en el año 2007. Este nodo se encuentra situado en el BIFI (Universidad de Zaragoza).
· Configuración
El sistema está compuesto de los nodos JS20 de IBM utilizados en el MareNostrum original alcanzado una potencia de 4'5 Tflops que lo sitúa en el puesto 417 del ranking top500[1] empatado con los otros 5 sitios creados a partir de los nodos del MareNostrum. Estos nodos utilizan un sistema operativo SUSE.

Ø Tarja

Tarja
Universidad de La Laguna
Localización
Canarias, España
Arquitectura
Intel Itanium 2
SO
-
Procesadores
64
Memoria
256 GB
Potencia
600 GFlops
Puestos en la lista TOP500:
Actual
>500
Mejor
-
Sitio web
http://www.saii.ull.es/

Tarja es el nombre clave del supercomputador del Servicio de Apoyo Informático a la Investigación, situado en la Escuela Técnica Superior de Ingeniería Informática de la Universidad de La Laguna en San Cristóbal de La Laguna, Tenerife (Canarias). Este servicio universitario tiene como misión proporcionar soporte y acceso a los recursos de cómputo científico disponibles a la comunidad investigadora de la Universidad de La Laguna.
El equipamiento de cómputo de altas prestaciones disponible en el servicio ha sido financiado gracias al Fondo Europeo de Desarrollo Regional (FEDER)


Ø Tirant
Tirant
Universidad de Valencia
Localización
Valencia, España
Fecha
2007
Arquitectura
PPC64 (IBM PowerPC 970)
Procesadores
512
Memoria
1024 GB
Potencia
2994.04 GFlops
Puestos en la lista TOP500:
Actual
>500
Mejor
413

El supercomputador Tirant es uno de los seis nodos que forman parte de la Red Española de Supercomputación en el año 2007. Este nodo se encuentra situado en la Universidad de Valencia.
Tirant recibe su nombre del protagonista de la novela caballeresca "Tirant lo blanc" (Tirante el Blanco), escrita en lengua valenciana por Joanot Martorell en 1490.

Nota:

ü Red Española de Supercomputación

La Red Española de Supercomputación, creada por el Ministerio de Educación y Ciencia, es un conjunto de supercomputadores distribuidos en la geografía española que cubren la necesidades de cómputo necesaria para el avance científico.
En la actualidad, la red se compone de siete supercomputadores y está coordinada por el BSC.
MareNostrum en el BSC (Barcelona).
Magerit en el CeSViMa (Universidad Politécnica de Madrid, Madrid).
Altamira en el IFCA (Universidad de Cantabria, Cantabria).
LaPalma en el Instituto de Astrofísica de Canarias
Picasso en la Universidad de Málaga
Tirant en la Universidad de Valencia
CaesarAugusta en el BIFI (Universidad de Zaragoza).

ü TOP500

El proyecto TOP500 es un ranking de los 500 supercomputadoras más poderosas del mundo. Esta lista está recopilada por:
Hans Meuer, Universidad de Mannheim (Alemania)
Jack Dongarra, Universidad de Tennessee (Knoxville)
Erich Strohmaier, NERSC/Lawrence Berkeley National Laboratory
Horst Simon, NERSC/Lawrence Berkeley National Laboratory
El proyecto se inicia en 1993 y publica una lista actualizada cada seis meses. La primera actualización de cada año se realiza en Junio, coincidiendo con la International Supercomputer Conference, y la segunda actualización se realiza en Noviembre en la IEEE Supercomputer Conference.


APA:
AUTOR: Wikipedia TITULO: Súper Computadoras del Mundo
PRODUCTOR: Segura Téllez Griselda FECHA: 20-02-09
URL: http://es.wikipedia.org/wiki/Categor%C3%ADa:Supercomputadoras


COMETARIO:

Esta informacion me sirve de manera profecional ya que en el mundo existe supercomputadoras diseñadas para el procesamiento de informacion científica y que ayudan ala conexión a internet.