Grandes empresas de informática, como a IBM e a Microsoft, e prestigiados laboratórios de investigação estão empenhados num projecto internacional de computação conhecido por grelha, com vista a transportar o poder dos supercomputadores aos cibernautas comuns.



Num artigo apresentado ontem na conferência Global Grid Forum em Toronto, quatro cientistas informáticos estabeleceram um plano para juntar a tecnologia de grade para computação distribuída com os novos serviços Web, um conjunto de protocolos técnicos - como o XML, SOAP, WDSL e UDDI - que as grandes companhias de computadores estão a desenvolver para disponibilizar uma série de novas soluções para a Internet. Estes padrões servem para descrever, identificar e comunicar dados através da Web.



Intitulado "A Fisiologia da Grelha: uma Arquitectura Aberta de Serviços em Grelha para a Integração Distribuída de Sistemas", o documento explicou como é que se poderiam desenvolver aplicações para serviços Web que possam prosperar no ambiente de computação distribuída da grelha.



O artigo foi elaborado em conjunto por Ian Foster, um cientista sénior do Laboratório Nacional Argonne, em Chicago e director do projecto Globus - entidade que organizou a conferência -, Carl Kesselman - também responsável por esse laboratório, sendo ao mesmo tempo director do Centro para Tecnologias em Grelha no Instituto de Ciências da Informação da Universidade da Califórnia do Sul -, Jeffrey M. Nick, um investigador da IBM e Steven Turkle, um cientista do Laboratório Argonne.



Prevê-se que a IBM e a Microsoft, para além de três outras companhias especializadas - a Platform Computing, Entropia e Avaki, anunciem o seu apoio à arquitectura em grelha para integrar serviços Web.



A tecnologia de grelha tem vindo nos últimos anos a crescer em grande parte nos centros de supercomputação dos governos e laboratórios universitários dos países mais industrializados do mundo. Este conceito de grelha - enquanto poder informático semelhante ao de um electrodoméstico, disponível em qualquer lado e em qualquer altura surgiu pela primeira vez nos anos 50.



Contudo, segundo os cientistas que defendem esta noção, os avanços progressivos no poder dos processadores, na capacidade das redes e no software fizeram com que o ideal há muito desejado da computação distribuída se tornasse possível de concretizar. Um exemplo disso é o programa SETI@home que teve início em 1999, congregando o poder de milhões de PCs para procurar sinais de inteligência extraterrestre.



Nos laboratórios, a tecnologia de grelha era sobretudo utilizada para que grupos de cientistas geograficamente dispersos pudessem colaborar em projectos complexos que exigem bastante capacidade de processamento, como a modelação do clima, física de alta energia, investigação genética e simulações de tremores de terras.



O software que permitiu a partilha de recursos informáticos e de informação nos programas científicos de tecnologia de grelha designa-se de Globus e baseia-se no modelo open-source, em que programadores localizados em várias partes do mundo partilham livremente ideias, código informático e resoluções de bugs.



Notícias Relacionadas:

2001-08-10 - Projecto de computação distribuída com processadores Intel e sistema Linux

2001-08-02 - IBM vai apostar em redes de computação através da Internet

2001-04-09 - Groove Networks vende software P2P a GlaxoSmithKline

2001-04-03 - Cientistas recorrem a PC para pesquisa na luta contra o cancro