Category: Computação


Depois de um longo tempo de jejum venho com esse post tentar retomar a frequencia na qual eu escrevia para o Blog. Devido à inúmeros problemas, eu passei este longo período sem escrever. Os que são mais próximos sabem dos problemas que enfrentei até o fim de agosto deste ano.

Mas é com grande felicidade que volto a escrever para celebrar as dificuldades superadas. Agora volto a compartilhar com quem gosta, os conhecimentos adquiridos desde 2005 quando iniciei-me profissionalmente na área de informática. Peço desculpas pelo “abandono” do blog e creio que a partir de agora voltarei a escrever com mais frequência.

Esclarecido os fatos vamos ao post. Neste mês de novembro de 2010 tive a oportunidade de concluir minha monografia. Como não dispunha de tempo e de recursos para mergulhar profundamente em um tema mais prático (inicialmente o tema seria Qual o impacto das VPNs sobre o tráfego múltimida em tempo real, depois o tema seria Consolidação de Infraestrutura de Alta Disponibilidade utilizando Virtualização), resolvi partir para um tema mais teórico. Assim, surgiu a idéia de falar sobre T.I. Verde (Green IT).

Para quem nunca ouviu falar, T.I. Verde não é uma tecnologia. Na verdade, ela consiste em um conjunto de práticas e tecnologias que possuem o objetivo de reduzir o consumo (e consequentemente os custos) de energia por parte dos sistemas informatizados e reduzir o consumo dos recursos de impressão (quer seja tinta, ou papel).

Esse tema é um hype e segundo consultorias como IDG e Gartner é uma das áreas de tecnologia mais promissoras para os próximos 5 anos. Esse tema está cada vez mais presente na cabeça dos CIO’s e gestores de organizações, tanto das organizações públicas,  quanto de organizações privadas.

Por trás dos conceitos que servem de base para T.I. Verde há conceitos como Virtualização e Consolidação de Servidores.

Se falarmos do hardware, o processo todo consiste em três partes. São elas:

1. Fabricação: Envolve todo o processo de fabricação, utilizando produtos que poluam o mínimo possível o ambiente, melhorar os processos para que o consumo de energia seja reduzido.

2. Administração e Utilização: Define como as empresas tratam seus recursos de T.I. Aqui podemos levar em consideração a aquisição de equipamentos que consumam menos energia, terceirização dos serviços de impressão, etc.

3. Descarte Inteligente: Define como os recursos de informática que tiveram seu tempo de vida útil alcançado possam ser descartados corretamente, de forma que não poluam o meio ambiente.

Se formos analisar, veremos que muitas das gigantes da área de T.I . já estão pensando verde. Podemos citar HP, Cisco, IBM, Google, Microsoft, entre outras.

A líder mundial no setor de redes, Cisco, desenvolveu um appliance que incorpora sete serviços em um único equipamento. No mesmo aparelho temos funções como proxy, firewall, PoE (Power over Ethernet), e outros. Dessa forma, os equipamentos que antes eram implementados cada um no seu chassi, hoje são incorporados a um único chassi que reduz consumo de energia, demanda menos refrigeração e ocupa menos espaço.

A gigante das buscas e da Internet – Google – está implementando um projeto seu revolucionário, o primeiro datacenter que funcionará em alto mar. O navio que hospedará esse conjunto de servidores será auto-suficiente. Ele usará o movimento das ondas e a luz solar para energizar os servidores que irão compor o datacenter. Tudo isso visa economizar energia e reduzir os custos existentes para o funcionamento dessa infraestrutura.

Um dos conceitos atrelados ao da T.I. Verde é o de consolidação de servidores. Podemos ver essa tecnologia a partir de dois ângulos diferentes. Podemos consolidar muitos servidores físicos em poucos servidores físicos também, e podemos consolidar vários servidores físicos em um único servidor através de virtualização, que falaremos mais na frente.

Com essa diminuição de servidores físicos, há uma redução no consumo de energia, o espaço a ser controlado e refrigerado será bem menor, as máquinas podem apresentar um melhor gerenciamento de energia.

Há uma tecnologia da IBM chama de Blade Center. Esta tecnologia permite uma significativa redução de tamanho quando o assunto é consolidação de servidores. Podemos integrar inclusive switches layer 4, 7 e switches SAN (Storage Area Network) dentro do Blade da IBM. Além de permitir uma redução de espaço, há uma redução no consumo de energia, tanto na parte dos equipamentos quanto na parte do resfriamento dos locais onde esses equipamentos são implementados.

Outra tecnologia bastante ligada à T.I. Verde é a virtualização. Essa tecnologia é bastante interessante e permite que executemos programas de sistemas operacionais diferentes ao mesmo tempo, que possamos aproveitar melhor os recursos de hardware, diminuindo significativamente o período de ociosidade das máquinas.

O interessante da virtualização é a quebra de paradigma que ela causa. Somos acostumados a pensar (e ver) cada recurso como um recurso físico, com suas características, propriedades que lhe são inerentes, como desempenho, consumo de energia, etc. Através dessa tecnologia passamos a ver cada recurso como um recurso lógico, que simula um recurso físico e teoricamente deve apresentar características muito parecidas ao seu correspondente recurso físico.

Para usuários comuns esse processo é completamente transparente. Apesar de a virtualização já ser uma tecnologia bem madura, ela ainda possui alguns desafios a serem vencidos.

Em outro post eu já falei mais sobre virtualização e quem desejar conhecer um pouco mais é só conferir aqui.

Para concluir, esse hype que está presente na cabeça de vários CIO’s e gestores é uma das promessas para os próximos cinco anos. Cada vez mais as empresas estarão preocupadas com a redução de custos, e além do mais cria-se uma imagem benéfica para empresa, que pode mostrar-se social e ambientalmente correta.

Há um site, o green500, que  mostra quais empresas já estão se preocupando com a questão ambiental, e até criou uma unidade de medida para estabelecer a relação consumo/processamento. Esta unidade é o Mflops/watt. Ela mede quantas operações de ponto flutuante a máquina consegue executar gastando apenas um watt.

Espero que o texto possa ser útil e em breve estarei disponibilizando a minha apresentação sobre o tema que utilizei na monografia.  

 

 

 

Anúncios

Software Livre – Verdades e Mitos

Um tema que está em evidência é o Software Livre (SL). Mas o que seria SL? Alguém lendo agora esse post saberia definir? Saberia dizer se já utilizou algum SL? Qual sua relação com Linux? E com o Windows, existe alguma relação? Elé é sinônimo de gratuito?

Vou tentar reponder essas e outras questões que surgem quando o tema é SL.

Primeiro, para falar de SL devemos conhecer três “celebridades” dessa área. Uma delas é Richard Stallman, o fundador da Free Software Foundation (FSF), organização sem fins lucrativos que se dedica à eliminação das restrições de cópias. Stallman é um famoso hacker e programador que criou o GNU Compiler Collection (GCC), o GNU Debugger e o editor de texto para ambiente Linux – o emacs. Outra das “celebridades” é o criador do Linux e ainda hoje ativista Linus Torvalds. Linus ainda influencia muita gente, e uma maneira de fazer isso é através do seu Blog. A última celebridade é Jon “Maddog” Hall ( o Jon “Cachorro Louco”), que é diretor executivo da Linux International, uma associação sem fins lucrativos que visa a promoção de sistemas operacionais baseados em Linux.

Após falar dos principais ícones atuais dessa corrente dentro da área de software, podemos falar sobre o SL propriamente dito. Primeiro, muita gente se pergunta, SL é sinônimo de Software gratuito? E muitos acham que essa resposta é sim. Entratanto, a resposta correta é NÃO. O SL pode ser pago! Quem desenvolveu pode cobrar pelo software. Aqui você deve estar se perguntando, então qual a diferença entre o Software Livre e o Software Proprietário (SP)? A diferença ta na filosofia por trás do SL.

No SL temos a idéia de copyleft, em detrimento do copyright dos SPs. O SL trabalha em cima de quatro liberdades, e essas liberdades são o grande diferencial da filosofia do SL. São elas:

  • A liberdade para executar o programa, para qualquer propósito (liberdade nº 0);
  • A liberdade de estudar como o programa funciona, e adaptá-lo para as suas necessidades (liberdade nº 1). Acesso ao código-fonte é um pré-requisito para esta liberdade;
  • A liberdade de redistribuir, inclusive vender, cópias de modo que você possa ajudar ao seu próximo (liberdade nº 2);
  • A liberdade de modificar o programa, e liberar estas modificações, de modo que toda a comunidade se beneficie (liberdade nº 3). Acesso ao código-fonte é um pré-requisito para esta liberdade;

Então, ao adquirir qualquer software que esteja registrado em uma das licenças que compõem o SL, você estará adquirindo o código fonte que gerou aquele programa e possui todo direito de alterá-lo para customizá-lo às suas necessidades.

Agora, será que você que está lendo conseguiria definir o que é SL? Se você consegue definir, você sabe responder se já utilizou um SL, mesmo sendo usuário Windows?

Será que não? Ou sim? Acho que todo mundo já utilizou algum dos programas abaixo:

  • Firefox
  • BrOffice
  • OpenOffice
  • Opera
  • Google Chrome
  • Java, PHP, Python, Perl
  • Flashplayer
  • Moodle
  • Apache (HTTP), BIND (DNS)
  • VLC, Mplayer
  • WordPress (Utilizado para criação deste Blog).
  • GIMP (similar do Photoshop), Inkscape (similar do Corel)

Agora me diga, você já utilizou SL? Talvez você tenha utilizado e nem tenha se dado conta. Independente de plataforma, de sistema operacional (se você utiliza Linux ou Windows) é bem verdade que em algum momento vocẽ utilizou algum SL, até mesmo quando acessa aquela página na Internet através do Firefox ou do servidor Web Apache.

Alguns podem estar se perguntando, mas se eu não cobrar pelo meu software, como vou ganhar dinheiro? Aqui podemos estabelecer alguns modelos de negócios para SL. Podemos citar:

  • Consultoria
  • Treinamento
  • Suporte ao software
  • Uma mescla das opções acima
  • Etc.

Então, não necessariamente devemos cobrar pelo software desenvolvimento para obter receita.

Finalizando, o SL é um software, que não é necessáriamente gratuitos, mas que visa a modificação (melhoria ou customização) e a disseminação do conhecimento adquirido através das modificações.

Simuladão LPI

Caros leitores,

Gostaria de divulgar uma excelente iniciativa do site Certificação Linux LPI. Eles estarão realizando no dia 7 de novembro de 2009 um simuladão para a prova de certificação LPI. O simulado será gratuito, mas quem desejar poderá fazer uma doação.

Após a realização do simulado será possível verificar se você obteve êxito na prova.

Você pode se inscrever aqui.

Após um tempo de jejum, volto a dedicar-me ao Blog.

Não sei se todos tomaram conhecimento, mas Jon “Maddog” Hall (presidente da Linux International) concedeu uma entrevista ao programa Roda Viva da TV Cultura durante um dos maiores eventos de tecnologia do país – a Futurecom.

Na pauta das discussões o tão pôlemico tema – Software Livre (SL) vs. Software Proprietário.

Aqui faço uma ressalva para não confundirmos livre com gratuito. São abordagens bem diferentes. Quando afirmo que determinado Software é livre, estou afirmando que quando eu adquirí-lo (quer seja pago ou gratuito) eu terei direito ao seu código fonte. A partir daí, poderei alterá-lo como achar melhor para que ele atenda as minhas necessidades.

Quando possuo essa liberdade de alterar o código fonte, nasce um outro conceito – SaaS (software como serviço, traduzido).

Agora, o software deixará de ser um produto e passará a ser um serviço, a medida que eu poderei customizá-lo para atender necessidades específicas de cada um dos meus clientes.

Durante a entrevista, Jon foi bastante incitado e provocado a falar sobre a Microsoft. Um fato interessante revelado por ele é que nos EUA há legislações diferentes para empresas de porte diferentes. Lá o monopólio é permitido. No entanto, esse monopólio é fortemente regulamentado pelo governo para que abusos não sejam cometidos.

Jon revelou ainda que na sua opinião, o SL é uma questão econômica e independe de ideologia político-partidária. Houve momentos em que um dos entrevistadores insistiu que na verdade a questão era extremanente política. Porém, no final foi esclarecido o ponto de vista de Hall e se pode mostrar as nuances econômicas por trás da produção de software.

Outro quesito interessante abordado foi a empresa Google. Jon foi questionado se o Google era bom ou ruim. Ele respondeu que não sabe dizer se o Google é bom ou ruim. Respondeu apenas que o Google está fazendo muito dinheiro através do software livre.

No geral a entrevista foi interessante. Entretanto, creio que o nível poderia ter sido melhor se o nível técnico dos entrevistadores fosse mais alto. Assim, ao invés de ficar discutindo se SL era estimulado por um fator econômico ou político, ou se a Microsft é ou não o demônio, outras questões mais interessantes poderiam ter sido abordadas. Por exemplo, o que se espera do SL para os próximos cinco anos? E nos próximos dez?

Como ele vê o avanço do SL nos últimos anos? O que mais facilitou esse avanço? Como as pessoas que estão entrando na área de TI e as pessoas que já fazem parte – mas conhecem pouco a respeito de SL – podem se esclarecer mais a respeito do assunto? Como se qualificar em SL? O que são certificações profissionais e quais são as recomendadas na área de SL?

Essas são apenas algumas das questões que poderiam estar em pauta para tornar o debate mais interessante. Mesmo assim, a entrevista foi bastante interessante e iniciativas como essas devem ser cada vez mais estimuladas.

10 razões para nao adotar a nuvem

Mais uma vez a Cloud Computing (CC) volta a cena. Durante uma de minhas navegadas pela rede descobri um artigo sobre CC que achei interessante(em inglês). Resolvi traduzir para facilitar o entendimento. Não sei qual o principal objetivo do autor (se era realmente mostrar que não se pode confiar na nuvem, ou “aparecer” sendo contra a tendência da CC, enquanto a grande maioria dos especialistas da área são a favor).  Resolvi fazer alguns comentários sobre cada razão apresentada pelo autor.

1. Cloud Computing torna o seu setor de TI excessivamente dependente da Internet:

A CC existe da premissa que a Internet estará sempre robusta e confiável. Por mais otimistas que sejamos, há sempre o perigo dos imprevistos. Se empresas perderem a conectividade com a nuvem por alguns dias, ou houver uma interrupção na Internet afetar os serviços na Nuvem, podem haver sérios danos. Onde estaria seu banco de dados na nuvem? Pensando nisso, voce poderia preferir que seus servidores estevissem no seu quintal, ao invés de estarem localizados em um lugar desconhecido.

Comentário:

É bem verdade que através da nuvem, as empresas e usuários ficarão bastante dependentes da Internet. No entanto, não podemos esquecer que a cada dia mais largura de banda é acrescentada nos links mundo afora. Todos os dias novas tecnologias são desenvolvidas visando o crescimento da Internet. Os consumidores estão mais conscientes e mais exigentes. Com isso, se os governos incentivarem a concorrência entre as operadoras e ISPs (permitindo a entrada de novas empresas) a Internet terá equipamentos melhores, com maior confiabilidade, segurança e disponibilidade. É necessário que a concorrência entre as empresas seja estimulada e que investimentos sejam realizados. Assim, aumentaremos a disponibilidade e reduziremos o risco de que empresas tenham prejuízos por conta de uma indisponibilidade causada por falha nos equipamentos da Internet.

2. Cloud Computing vai atrair clientes principalmente em mercados ocidentais:

O CC assume implicitamente que a Internet é tão robusta mundialmente como é na América do Norte, Europa e algumas partes da Ásia. Mas clientes de países onde a conectividade onde a Internet é esporádica são desencorajados a entrarem na nuvem. Até a Índia, um país que é potência na área de TI continua a ter baixas velocidades de conectividade com a Internet. O descaso com a infraestrutura é tão notável que a maioria dos Indianos preferem as velocidades limitadas das Internet Móvel sem fio das companias de celulares. Até quedas de energia podem inviabilizar o acesso a nuvem. Eles aprederam que não devem confiar na infraestrutura da Internet nem de energia do governo. Eles matém seus próprios backups de geração de energia no próprio site.

Comentário:

Não se pode negar que os paises emergentes e de terceiro mundo ainda sofrem com a escassez de investimentos em infraestrutura de TI e que governos e iniciativa privada não investem o quanto deveriam para que possamos ter links com a largura de banda cada vez maiores e tecnologias que promovam uma disponibilidade cada vez maior – o que colocaria estes paises na vanguarda da tecnologia e poderia inserir as empresas desses paises na nuvem. Se houverem os devidos investimentos nesses paises, com certeza haverá demanda por serviços na nuvem.

3. Cloud Computing torna você dependente da boa vontade do seu ISP:

A CC pode requerer largura de banda gratuita para o cliente dependendo da localização do cliente na nuvem. E os mesmos ISPs que clamam por largura de banda podem cobrar, se proteger e até excluir usuários que excedam seu limite de largura de banda.

Comentário:

Isso já acontece sem termos de fato a CC funcionando com todo seu potencial. Há muito tempo que os ISPs praticam o traffic shapping, punido usuários que realizam muitos downloads – principalmente através de torrent. Já aconteceram casos de punição de ISPs no EUA, mas ainda não há legislação específica para punir os ISPs que limitem o tráfego dos clientes, muitas vezes baseados no contrato no qual o ISP garante apenas 10% do valor contratado. Portanto, não adiante querer influenciar pessoas a não adotarem a CC por causa de uma prática já disseminada pelos ISPs.

4. Cloud Computing pode expor clientes à práticas não éticas de seus ISPs:

Grandes provedores têm espiado as redes de seus clientes P2P em nome da indústria fonográfica. Será que podemos confiar nesses provedores para tratar o tráfego sensível e da nuvem? Dizem-nos que tudo vai ser criptografados através de VPNs. Mas, ainda assim, dado o papel maculado dos ISPs (Internet Service Provider), podemos confiar neles para o tráfego não-criptografado?

Comentário:

A verdade é que tendo em vista os acontecimentos que cercam clientes e ISPs, não podemos confiar neles (ISPs). Casos de violação de privacidade, dados revelados e traffic shapping não refletem que devemos confiar nessas empresas. Claro que temos as tecnologias que acrescentam criptografia e tornam as comunicações mais seguras. Nesse tipo de comunicação os ISPs não podem interferir. Entretanto, para os tráfegos não criptografados, deverá ser criada uma legislação específica para proteger os possíveis abusos que eventualmente os clientes possam ser vítimas.

5. Cloud Computing é contra o espírito de Computação Pessoal :

Computadores pessoais foram feitos para capacitar os indivíduos, torná-los mais indepen- dentes e produtivos. A maioria dos pesos pesados da indústria de hoje devem seu sucesso ao viver de acordo com estas expectativas. Microsoft e IBM aliciaram o inesperado de Cloud Computing e é mais parecido com a Toyota, que adota o modelo de negócio de uma agência de alugar automóveis (Se isso viesse a acontecer, a Toyota poderia igualmente remarcar-se na moda do Vale do Silício, como uma assinatura baseada Provedor de Serviço de Transporte).

Comentário:

Com a evolução da CC é de se esperar que a computação pessoal sofra uma queda. Pórem, não é mérito apenas da CC. Há algum tempo que mobilidade passou a ser palavra de ordem no ramo da TI. Com a redução dos custos com hardware, miniaturização dos componentes e aumento do poder de processamento, dispositivos móveis vêm ganhando cada vez mais espaço entre os usuários. Então, colocar apenas a CC como culpada por ser contra o espírito da computação pessoal é querer menosprezar que a mobilidade se tornou uma necessidade da grande maioria dos usuários.

6. A CC torna a sua nuvem dependente das leis americanas:

Como a maioria dos grandes servidores Cloud Computing são operados por empresas sediadas nos Estados Unidos, os dados que você colocar na sua nuvem está sujeito à lei americana. E a lei americana, por sua vez, está sujeita a substituições, lacunas, “Atos Patrióticos”, e as exceções, dependendo da agência governamental (ou de pessoas/interesses) que os seus dados requerem. Você não pode sequer ser informado de que seus dados foram comprometidos pela mesma razão que, Jack Bauer começa torturarando seus reféns/prisioneiros – segurança nacional. E antes de chegar à nuvem, seus dados passarão por ISPs americanos que fornecem o tempo de atividade da nuvem. Os dados podem ser interceptados por Agências Estado antes mesmo de atingir as nuvens.

Comentário:

Mais uma vez quer se colocar culpa na nuvem por uma prática que já acontece desde o início da Internet. Os EUA sempre tiveram o controle da maioria da Internet. Para começar, a maioria dos servidores DNS raiz estão de posse dos EUA. As agências dos EUA monitoram a maior parte do tráfego da Internet, sobre o velho pretexto da segurança nacional. Agências como NSA, FBI e CIA possuem meios de monitorar a maior parte da atividade da Internet. Na CC, essa prática vai continuar sim, e deixar de adotar CC por causa de uma prática já realizada há muito tempo é insensato.

7. Cloud Computing pode expor seus dados confidenciais com “elementos corruptos” (e não, eu não estou falando de hackers e ladrões de identidade):

Uma vez que a corrupção na sociedade ocidental é mais um clube, a maioria das pessoas se referem a ela apenas em termos redigidos. Mas a menos que você seja realmente ingênuo(a), é uma realidade que você deve estar preparado para lidar com eles. Já em 2004, um cara Utah conseguiu números de cartão de crédito. O problema era que o nome e o endereço da aplicação só tinha sido previsto para o Registro de Veículos Automotores. A má notícia não é que as Agências do Estado Americano têm acesso backdoor às empresas americanas. Em vez disso, as empresas americanas têm uma relação incestuosa com as Agências do Estado Americano. Supondo que você é uma corporação não-americanas com sua nuvem hospedada por uma empresa americana, e seu principal concorrente é um peso-pesado americano com acesso backdoor para as agências estaduais, seus dados confidenciais sobre a nuvem pode ser apenas algumas chamadas de longa distância. Corporações norte-americanas são conhecidas por usar as agências estaduais como exércitos pessoais, embora muito pouco disto fica documentado. Pior, se o CEO da empresa que hospeda o Cloud e o CEO do seu concorrente pertencem à mesma fraternidade, os seus dados confidenciais sobre a nuvem pode ser apenas um aperto de mão de longa distância. Naturalmente, os dados sobre a nuvem estão encriptados e não podem ser acessados por qualquer um que não seja você mesmo. Mas até então, sempre há exceções.

Comentários:

Novamente se tenta justificar a teórica não viabilidade da CC com fatos que já ocorrem desde o advento da Internet. Não é novidade que sempre houve aproximação entre as grandes corporações americanas e as agências governamentais, e que essa aproximação sempre visou o lucro exagerado. Tecnologias como VPN e criptografia podem reduzir significati- vamente a facilidade de acesso a esses dados, garantindo um nível razoável de confidencialidade e integridade dos dados.

8. Cloud Computing está soando mais como um hall de entrada do que uma tendência:

De repente, todos os dedos, gurus e especialistas estão clamando para Cloud Computing. Os artigos estão aparecendo em publicações respeitáveis pesando os prós e contras. Chefes de negócios estão exibindo como eles conseguiram cortar custos. Será que podemos lembrá-lo de Big Tobacco, Sugar Big, Big Science e Big Pharma? Você compra no escuro? Você está disposto a “investir” os seus dados no sistema?

Comentário:

Erros já aconteceram durante a história. Na realidade, não há comprovação de que realmente a CC irá dar certo. Só o tempo, investimentos, empenho de empresas, universidades, governo poderão dizer se a CC virará um padrão ou não foi apenas fogo de palha. O que é certo, é que devido a necessidade de mobilidade e alta disponibilidade aonda quer que o usuário esteja, a CC busca atender a essas necessidades. Ainda há muitas questões para serem resolvidas, principal- mente com relação a segurança. Assim sendo, teremos que aguardar que os investimentos sejam feitos e que os desafios sejam vencidos. Só então a CC se tornará um padrão de fato.

9. Cloud Computing pode ser de pouca importância para pequenas e médias empresas:

A edição de maio 2009 da WIRED publicou um artigo interessante sobre Cloud Computing, destacando prós e contras. O exemplo citado chave a favor de Cloud Computing foi de um consultor de informações Eli Lily, que, como um cliente da Amazon Web Services usa o iPhone para rodar “análise genômica” on the Cloud. Como os executivos de muitas empresas podem se imaginar fazendo isso?

Comentário:

Como toda tecnologia, a CC também apresenta seus prós e contras. Limitar-se em destacar apenas um empresário que utiliza Iphone é ser bastante limitado em idéias. Se imaginarmos o Google Docs. Você saber que agora pode realizar todo o seu trabalho (que depende de uma suíte office) com um processo mínimo na sua máquina local. E ainda, que esses arquivos estarão disponíveis em qualquer lugar, a qualquer hora. Não será necessário pagar licenças, instalar softwares localmente e tudo de forma transparente para o usuário. Essas são apenas algumas das vantagens iniciais da CC, e a medida que a tecnologia for evoluindo, mas aplicações se tornarão possíveis e atenderão pequenas, médias e grandes empresas.

10. Cloud Computing pode não contribuir para a economia nacional:

Quando você comprar o hardware, software e consultoria técnica para a criação de um servidor localmente, você está apoiando diversas empresas locais. Com o Cloud Computing, você ignora todos estes. Mas os principais fornecedores de Cloud Computing são de propriedade americana e norte-americana? Sim, são. Mas quando descobrirem, eles poderão pensar em terceirização. E Cloud Computing é muito viável para terceirizar. Dado o seu histórico,não exatamente estimar empregando-americanos, a menos que Obama os obrigue a fazê-lo.

Comentário:

Novas tecnologias sempre virão. Com a CC não é diferente. Novas tecnologias sempre causam desemprego – o desemprego estrutural. São postos de trabalho que se fecham e nunca mais se abrem. No entanto, novas oportunidades são criadas, e se as pessoas não estão preparadas fica complicado colocar a culpa na nova tecnologia – e não na falta de compe- tência do profissional ou na falta de adaptabilidade dele para novas tecnologias.

Como eu havia prometido no post (In)Segurança – Desafio doméstico e corporativo estarei falando um pouco sobre a segurança em redes sem fio.

Há algum tempo as redes wireless vêm ganhando espaço devido a um fator que as vezes torna-se indispensável – mobilidade.

A cada dia novas pessoas adquirem celulares, notebooks, netbooks e mais uma infinidade de equipamentos que permitem o estabelecimento de comunicações móveis. Com o crescimento do número de usuários móveis e de aparelhos que permitem tal comunicação, as redes wireless cresceram absurdamente e a segurança teve que evoluir. Entretanto, muitos desafios ainda precisam ser vencidos.

A história das redes wireless teve início na ALOHANET, uma rede sem fio cuja topologia era estrela (topologia que possui um concentrador e os demais nós da rede dispõem-se de maneira a formar uma espécie de estrela) e era utilizada para interligar 7 campi que localizam-se em 4 ilhas. O concentrador da tologia era a ilha de Oahu.

Nas redes sem fio, o meio de transmissão utilizado para comunicação é o AR. Assim, além de o meio ser compartilhado, qualquer pessoa que conheça a frequência utilizada na comunicação  pode utilizar um dispositivo que opere nesta mesma frequência, e assim capturar dos dados que estão trafegando.  É nessa facilidade de acesso em que se baseia a insegurança nas redes sem fio.

Comunicação sem fio é exigência em muitas aplicações. Atualmente, a necessidade de remoção do cabeamento se faz presente em muitas aplicações. Já temos mouse sem fio, teclado sem fio, fones sem fio, etc. Até algo inesperado como a energia elétrica já está tendo uma versão sem fio sendo desenvolvida.

Apesar dessa facilidade de interceptação das comunicações sem fio, a segurança neste tipo de rede já evoluiu bastante. Tudo iniciou-se com a WEP (Wireless Equivalent Privacy), que como o próprio nome diz, prometia uma privacidade equivalente à das redes cabeadas.

Entretanto, algumas aplicações foram desenvolvidas e através delas se pode quebrar uma chave de criptografia WEP em pouco mais de 3 minutos. utilizando um sniffer, uma ferramenta de geração de pacotes (tráfego) de rede e um analisador para quebrar a chave WEP – que passa em texto claro pelas comunicações da rede.

Em seguida surgiu o WPA (Wi-fi Proteced Access) e seu sucessor – o WPA2. Ambos possuem suas características e protegem significativamente as redes wireless atuais, desde que estejam corretamente configuradas em toda a rede.

Algumas redes sem fio de maior porte (ESS – Extended Service Set, redes que possuem mais de um Access Point) possuem autenticação por redes cabeadas, utilizando tecnologias como RADIUS, CHAP, EAP, etc. Todas essas tecnologias cabeadas objetivam que a comunicação não seja interceptada durante a autenticação, e que um atacante possa se fazer passar por um usuário válido.

Na redes cabeadas, para que se possa interceptar uma comunicação, o atacante deve fazer parte do meio compartilhado, o que significa que ele deveria estar no mesmo barramento (cortar o fio e fazer uma emenda nele com o seu próprio cabo de rede) para poder interceptar a comunicação. Essa característica confere às redes cabeadas um nível de segurança que as redes wireless não possuem.

Por isso que a mobilidade exige que mais precauções sejam tomadas com a segurança para que se evitem surpresas desagráveis em suas redes.

Até a próxima…

Uma das tendências do futuro no setor automobilístico são as Vanets (Redes Ad-hoc Veiculares). As Vanets são uma subcategoria das redes Manet (Mobile Ad-hoc Network, Redes Móveis Ad-hoc).

Uma rede Ad-hoc é uma rede sem fios na qual não há a presença de um equipamento concentrador – access point. Assim, não há necessidade de um equipamento que concentre as comunicações na rede. Dois nós da redes podem iniciar uma comunicação sem a necessidade de haver autenticação em um acces point.

Essa tecnologia equipa os carros com adaptadores de redes wireless e faz com que carros próximos possam trocar informações. Com isso os carros podem repassar informações a respeito do trânsito, condições de vias mais a frente, acidentes que por ventura tenham ocorrido nas vias, etc.

Outra alternativa de uso para a tecnologia é na prevenção de acidentes automobilísticos. Já está em estudo em laboratórios  e em alguns anos poderá ser utilizada para a prenção de acidentes. Os carros serão equipados com sensores e quando perceberem que um acidente está na iminência de ocorrer, um carro é eleito como líder do grupo próximo e toma as decisões para cada carro e o que eles devem fazer. Neste momento o motorista perde o controle do carro, que passa para o computador. Isso faz com que cada carro tome a decisão informada pelo líder.

Algumas das dificuldades encontradas nas Vanets são as constantes mudanças na localização dos veículos, a extensa troca de mensagens com carros próximos exigindo uma capacidade razoável de armazenamento e a principal – a segurança.

Ainda teremos que vencer esses inúmeros desafios até que a tecnologia torne-se usável.

No futuro, mais aplicações serão possíveis através das Vanets. Por exemplo, se as redes 3G e as redes sem fio de longo alcance realmente emplacarem, as Vanets poderão ser usadas para que os carros tenham acesso a internet, com servidores especializados que forneçam informações sobre a previsão do tempo, sobre os pontos de engarrafamento em determinada cidade ou parte da cidade. A criatividade é quem vai dizer os limites.

Depois de algumas semanas de jejum, volto a escrever. Escolhei esse tema devido ser uma tecnologia crescente e promissora, e acabei de realizar um trabalho para faculdade.

Mas afinal, o que é virtualização? A grosso modo, virtualização é a capacidade de rodar dois ou mais sistemas operacionais ao mesmo tempo no mesmo hardware. O conceito não é novo, mas a cada ano ganha mais espaço no ambiente corporativo.

Na prática, o conceito é bem mais extenso. Hoje a virtualização envolve também aplicações, armazenamento, sistemas operacionais, segurança, disponibilidade, integridade e uma série de conceitos relacionados.

Primeiramente, vamos começar debaixo – com os processadores. A Intel disponibiliza uma solução chamada de Intel VT (ou Vanderpool) e a AMD uma tecnologia chamada de AMD-V (ou Pacifica). Eles garantem um hardware especifico para a tarefa de virtualização.

Há um conceito bastante importante em virtualização – sistema operacional hóspede e convidado. O hóspede é o sistema nativo na máquina, é o sistema que realmente roda sobre o hardware. O sistema convidado é o sistema virtualizado e não interage diretamente com o hardware. Ele é executado no modo usuário, ao invés do modo root (com previlégios para interagir diretamente com o hardware).

Um exemplo de virtualização que não é um sistema operacional é a JVM (Java Virtual Machine), que proporciona a portabilidade de programas feito na linguagem Java.

Há dois tipos de virtualização – a virtualização total (ou completa) e a paravirtualização. Na virtualização total, o sistema operacional não necessita de moficicações, porém, consome mais recursos e gera conflitos a nível de kernel, pois o sistema convidado não tem consciência de que não acessa o hardware diretamente. Já na paravirtualização, o sistema sofre alterações e passa a ter consciência de que que é virtualizado.

A virtualização traz inúmeras vantagens como:

– Economia de espaço e energia.

– Centralização.

– Aumento da disponibilidade.

– Interoperabilidade com sistemas legados.

– Independência do hardware.

– Consolidação de servidores.

– Desenvolvimento de aplicações (testes).

Assim, diante de todas essas vantagens fica claro o porquê de a virtualização ser a tecnologia mais promissora de 2009 segundo a consultoria Gartner.

Cada vez mais empresas estão implementando a virtualização. Através dela é possível rodar diversos aplicativos e serviços em um único servidor físico. Então podemos virtualizar servidores e de forma que cada serviço possua uma máquina virtual redundante – o que resulta numa maior disponibilidade.

Através de storage se pode criar cotas de disco para diversos serviços, inclusive remotos. Isso possibilita backup remoto e também aumenta significativamente a disponibilidade do serviço. Servidores podem ser criados dinamicamente sem parar serviços e servidores, e ainda mudar de servidor físico ao custo apenas de alguns segundos (imperceptiveis para o usuário) de indisponibilidade do serviço.

Outra tecnologia que depende da virtualização é o cloud computing. Sim, ela mesmo, a computação em nuvens. Devido a essa flexibilização e ao aumento da disponibilidade o parque de servidores e os datacenters das empresas prestadoras de serviço na nuvem implementam cada vez mais a virtualização.

A economia gerada pela virtualização se encaixa no conceito de TI Verde. Na mais é do que medidas que gerem economia de recursos do meio ambiente, ou permita seu uso de forma mais consciente.

Juntas, virtualização, TI Verde e Cloud Computing são as três tecnologias que receberão mais investimentos por parte das empresas nos próximos anos segundo as principais consultorias.

E essa tal de virtualização só pode ser utilizada em ambientes de servidores? A resposta é não. Há programas como Xen (ambiente Linux), VirtualBox (multiplataforma – Windows, Linux, Mac, Solaris), VMWare (multiplataforma) e o VirtualPC(ambiente Windows). Se você ainda não teve experiência com essa tecnologia vale a pena baixar um dos programas acima e testar. Comece agora mesmo a virtualizar.

Programação e suas Linguagens

Estava eu a navegar na Internet e achei um texto interessante sobre linguagens de programação.

Apesar de não minha área, achei esse texto bastante interessante e resolvi compartilhar aqui.

Queria deixar claro que não conheço Perl, e não sei se ela é realmente o que o texto retrata. Conheço apenas as demais linguagens citadas e posso dizer que realmente apresentam os obstáculos retratados.

Segue aqui o link para o texto na íntegra.

Boa leitura a todos e até mais…

Agora falemos um pouco sobre o mundo Microsoft. Há inúmeras carreiras que podem ser seguidas na gigante de Redmond. A certificação MCP (Microsoft Certified Professional) é a porta de entrada para o mundo Microsoft. Há basicamente quatro áreas a serem seguidas. Temos a área de Redes (com as certificações de segurança e sistemas operacionais para servidores), a área de Banco de Dados (com destaque ao SQL Server), a área de suporte ao sistemas operacionais Microsoft e a área de Desenvolvimento – com destaque para a certificação C#.

Temos carreiras bem definidas como MCSA (Microsoft Certified System Administrator) e MCSE (Microsoft Certified System Engineer). Para seguir essas carreiras e adquirir o título é necessário realizar um conjunto de provas. A MCSA é composta de quatro exames, dois de core, um de client e um de messaging. Esta certificação atesta que o detentor possui conhecimentos em administração de ambientes Microsoft.

Ja o MCSE é composto de sete exames, quatro de core, um de client, um de core design e um eletivo. Esta certificação atesta que o detentor do título possui capacidade de desenhar e implementar soluções de negócios em ambientes Microsoft.

Mais informações no site brasileiro da Microsoft.

Outro tipo de certificação que está bastante em alta são as certificações da área de gestão – com destaque para BI (Bussiness Inteligence), ITIL (Information Technology Infraestructure Library) e COBIT (Control Objectives for Information and related Technology).

Essas certificações conferem ao detentor do título habilidades para gerenciar as tarefas e ambientes de TI. Elas são indicadas para quem já possui experiência na área. Algumas delas exigem que está experiência seja comprovada.

Pessoas que já trabalharam algum tempo na área técnica e desejem melhorar a carreira assumindo cargos de gerência e liderança são extremamente indicadas para adquirir esse tipo de certificação.

Para finalizar, gostaria de falar sobre as certificações das áreas que mais me atraem. São elas a área de redes e a área de segurança.

Um pouquinho de história… Eu dei meus primeiros passos na área de inforática em meados de 2005 através de um curso de Manutenção de Computadores. Nesta oportunidade eu visita a biblioteca do SENAC Ceará e fui lendo um pouco a respeito de cada área da informática.

Lembro-me de algumas que me chamaram um certa atenção – como Linguagem C e C++. Lembro-me de outras nas quais nem entendi do que se tratavam – como UML, Cobol e Fortran.

Meu primeiro contato com a área de redes foi o livro de Redes do Gabriel Torres. Fiquei fascinado com a oportunidade de saber como as máquinas se interligam através de redes. De lá para cá, também descobri a área de segurança – que também me deixou bastante fascinado. Nos próximos parágrafos irei falar um pouco sobre as certificações destas duas áreas – que me fascinam tanto.

Não poderia iniciar sobre as certificações de redes sem falar de Cisco – a líder mundial no segmento de redes. A Cisco evoluiu bastante e hoje possui inúmeras carreiras a serem seguidas.

Há algum tempo, para se iniciar no mundo Cisco era necessária a certificação CCNA (Cisco Certified Network Associate). No final do ano passado essa prova sofreu uma modificação e foi divida em duas possivéis provas – o que não impede que se faça apenas a CCNA.

A nova possibilidade ICND (Interconect Cisco Network Devices) é composta de duas provas que possuem o intuito de facilitar a vida de quem vai tirar CCNA, a medida que divide o conteúdo em duas provas.

Logo a seguir, temos a CCNP (Cisco Certified Network Professional), que é composta de quatro provas. Para finalizar nessa vertente, a Cisco disponibiliza a CCIE (Cisco Certified Internetwork Expert) e que é composta de duas provas – uma teórica e uma prática. Quem alcança o título de CCIE conta com uma grande chance de ir trabalhar na própria Cisco.

Há outras carreiras a serem seguidas no mundo Cisco – são as carreiras de design ou specialist. Por exemplo, temos a  de design, que necessita das provas CCDA (Cisco Certified Design Associate) e CCDE  (Cisco Certified Design Expert).

Nas carreiras specialist temos a CCVP (Cisco Certified Voice Professional) que necessita de seis exames para que o candidato receba o título e confere habilidades para implementar e manter a telefonia VoIP (Voice over IP).

Outra carreira specialist é a CCSP (Cisco Certified Security Professional) e finalizando temos as carreiras wireless – com a carreira CWNA (Cisco Wireless Network Administrator).

Qualquer carreira Cisco permite que o profissional turbine sua carreira ou comece a trilhar um futuro mais promissor.

Finalizando, espero ter ajudado a esclarecer mais sobre as certificações existentes na área de TI. Qualquer dúvida podem me contactar pelo e-mail osvaldofilho@larces.uece.br.

Boa sorte a todos e até semana que vem!