Páginas

sexta-feira, 25 de novembro de 2011

Video Game x Grupos midiáticos

Video Game: Febre que tomou conta da humanidade, principalmente do sexo masculino...

O primeiro video Game do mundo foi o Odyssey 100, lançado nos Estados Unidos em Janeiro de 1972.

Seja como, distração habitual, passa tempo, hobby, compulsão obsessiva ou entre amigos...

São poucos aqueles que nunca tiveram contato com o mundo virtual dos games, tão fascinante e encantador.

quinta-feira, 17 de novembro de 2011

Computação em Nuvens: O futuro, segundo o Google!

Nos próximos anos deveremos ouvir muito os termos “computação em Nuvens “, “cloud computing ” e “SaaS – Software-as-a-Service “. O conceito é claro, cada vez mais as informações estarão disponíveis e mais pessoas terão acesso a essas informações, graças à disponibilização de muitos serviços on-line, muitos gratuitamente, e que devem baratear o preço dos computadores, inclusive, aumentando a presença on-line de pequenas empresas e fornecedores de serviços. O conceito não é novo para quem trabalha com internet, mas ganha cada vez mais destaque com declarações da Google estar trabalhando na sua “computações em Nuvens”. O termo refere-se à possibilidade de utilizarmos computadores menos potentes que podem se conectar à Web e utilizar todas as ferramentas on-line, seguindo o exemplo que o Google propõe com o Google Docs, Gmail e tantas outras aplicações. Assim, o computador seria simplesmente uma plataforma de acesso às aplicações, que estariam em uma grande nuvem – a Internet.Vale lembrar, que como o termo não é nada novo, já existem vários sites que são praticamente sistemas operacionais on-line, além de muitos serviços que disponibilizam ferramentas fantásticas on-line. Exemplo recente da Adobe, que disponibilizou uma versão on-line do Photoshop.O Jornal da Globo fez uma reportagem tentando explicar o conceito e, ao visitar a sede do Google em Mountain View tornou-se a primeira equipe de TV sul-americana a conversar com Eric Schmidt – CEO do Google. Na conversa, Eric falou que o Google compra novas empresas na proporção de uma por semana e, ao ser perguntado sobre uma possível aquisição do Yahoo!, respondeu que não há planos de comprar gigantes, mas sim de pequenas empresas que oferecem serviços “revolucionários”.Eric também “alfinetou” a Microsoft, falando que não tem medo da empresa de Bill Gates e que a empresa deve sofrer com a concorrência da “computação em Nuvens” que deve crescer nos próximos anos e ir totalmente contra o conceito aplicado até hoje pela Microsoft. Segundo ele, o futuro está na internet, daí o interesse da Microsoft adquirir o Yahoo!.Eric completou que o Google está trabalhando para esta “computação em nuvens”, mostrando que a empresa tem interesse em disponibilizar cada vez mais informações e torná-las cada vez mais acessíveis, seguindo o lema da empresa e, lógico, ganhando mercado e fazendo dinheiro com este público sedento por informações O conceito de computação em nuvem (em inglês, cloud computing) refere-se à utilização da memória e das capacidades de armazenamento e cálculo de computadores e servidores compartilhados e interligados por meio da Internet, seguindo o princípio da computação em grade. [1]
O armazenamento de dados é feito em serviços que poderão ser acessados de qualquer lugar do mundo, a qualquer hora, não havendo necessidade de instalação de programas x ou de armazenar dados. O acesso a programas, serviços e arquivos é remoto, através da Internet – daí a alusão à nuvem.[2] O uso desse modelo (ambiente) é mais viável do que o uso de unidades físicas.[3]
Num sistema operacional disponível na Internet, a partir de qualquer computador e em qualquer lugar, pode-se ter acesso a informações, arquivos e programas num sistema único, independente de plataforma. O requisito mínimo é um computador compatível com os recursos disponíveis na Internet. O PC torna-se apenas um chip ligado à Internet—a “grande nuvem” de computadores—sendo necessários somente os dispositivos de entrada (teclado, mouse) e saída (monitor). A maior vantagem da computação em nuvem é a possibilidade de utilizar softwares sem que estes estejam instalados no computador. Mas há outras vantagens:[5]Na maioria das vezes o usuário não precisa se preocupar com o sistema operacional e hardware que está usando em seu computador pessoal, podendo acessar seus dados na “nuvem computacional” independentemente disso;As atualizações dos softwares são feitas de forma automática, sem necessidade de intervenção do usuário;O trabalho corporativo e o compartilhamento de arquivos se tornam mais fáceis, uma vez que todas as informações se encontram no mesmo “lugar”, ou seja, na “nuvem computacional”;Os softwares e os dados podem ser acessados em qualquer lugar, bastando que haja acesso à Internet, não estando mais restritos ao ambiente local de computação, nem dependendo da sincronização de mídias removíveis.O usuário tem um melhor controle de gastos ao usar aplicativos, pois a maioria dos sistemas de computação em nuvem fornece aplicações gratuitamente e, quando não gratuitas, são pagas somente pelo tempo de utilização dos recursos. Não é necessário pagar por uma licença integral de uso de software;Diminui a necessidade de manutenção da infraestrutura física de redes locais cliente/servidor, bem como da instalação dos softwares nos computadores corporativos, pois esta fica a cargo do provedor do software em nuvem, bastando que os computadores clientes tenham acesso à Internet. ·         Arquitetura em nuvem é muito mais que apenas um conjunto (embora massivo) de servidores interligados. Requer uma infraestrutura de gerenciamento desse grande fluxo de dados que, incluindo funções para aprovisionamento e compartilhamento de recursos computacionais, equilíbrio dinâmico do workload e monitoração do desempenho.·         Embora a novidade venha ganhando espaço, ainda é cedo para dizer se dará certo ou não. Os arquivos são guardados na web e os programas colocados na nuvem computacional – e não nos computadores em si – são gratuitos e acessíveis de qualquer lugar. Mas a idéia de que ‘tudo é de todos e ninguém é de ninguém’ nem sempre é algo bem visto.·         O fator mais crítico é a segurança, considerando que os dados ficam “online” o tempo todo·         No Brasil, a tecnologia de computação em nuvem ainda é muito recente e está fora da realidade da maioria das organizações de médio e pequeno porte, pois a infraestrutura de telecomunicações do país é deficiente. Os primeiros testes foram implementados em 2007, sendo que somente em 2008 começou a ser oferecido comercialmente.·         A empresa Katri[8] foi a primeira a desenvolver a tecnologia no Brasil, em 2002, batizando-a IUGU. Aplicada inicialmente no site de busca de pessoas físicas e jurídicas Fonelista. Durante o período em que esteve no ar, de 2002 a 2008, os usuários do site puderam comprovar a grande diferença de velocidade nas pesquisas proporcionada pelo processamento paralelo.·         Em 2009, a tecnologia evoluiu muito, e sistemas funcionais desenvolvidos no início da década já passam de sua 3ª geração, incorporando funcionalidades e utilizando de tecnologias como “índices invertidos” (inverted index).·         A empresa Indústria Virtual lançou em 2009 a versão 2.0 do sistema WebCenter[9] e está popularizando a utilização da computação em nuvem, trazendo ferramentas que facilitam a utilização desses novos recursos, tanto por empresas como por pessoas físicas.·         No ambiente acadêmico o Laboratório de Redes e Gerência da UFSC foi um dos pioneiros a desenvolver pesquisas em Computação em Nuvem publicando artigos sobre segurança, IDS (Intrusion Detection Systems) e SLA (Service Level Agreement) para computação em nuvem. Além de implantar e gerenciar uma nuvem privada e computação em nuvem verde.Os sistemas operacionais para Internet mais utilizados são:Google Chrome OS: Desenvolvido pela Google, virá com os Chromebooks, que têm lançamento marcado para o dia 15 de junho de 2011 nos EUA, Reino Unido, Espanha e em outros 4 países. Trabalha com uma interface diferente, semelhante ao do Google Chrome, em que todas as aplicações ou arquivos são salvos na nuvem e sincronizados com sua conta do Google, sem necessidade de salvá-los no computador, já que o HD dos dois modelos de Chromebooks anunciados contam com apenas 16gb de HD. [7]Joli Os: desenvolvido por Tariq Krim, o ambiente de trabalho chamado jolicloud usa tanto aplicativos em nuvem quanto aplicativos ofline, baseado no ubuntu notebook remix, ja tem suporte a varios navegadores como google chrome, safari, firefox, e esta sendo desenvolvido para funcionar no android.YouOS: desenvolvido pela empresa WebShaka, cria um ambiente de trabalho inspirado nos sistemas operacionais modernos e utiliza a linguagem Javascript para executar as operações. Ele possui um recurso semelhante à hibernação no MS-Windows XP, em que o usuário pode salvar a área de trabalho com a configuração corrente, sair do sistema e recuperar a mesma configuração posteriormente. Esse sistema também permite o compartilhamento de arquivos entre os usuários. Além disso, possui uma API para o desenvolvimento de novos aplicativos, sendo que já existe uma lista de mais de 700 programas disponíveis. Fechado pelos desenvolvedores em 30 de julho de 2008;

Google anuncia Google+ para todos os usuários

Conforme informações da própria companhia, o Google+ já está disponível para todos os cibernautas. Nesta última terça-feira, o Google apresentou nove recursos, na verdade, dez, mas sempre deixando o último para o final da festa.
De acordo com o Vice-Presidente da empresa, Vic Gundotra, informou que, “Nas últimas doze semanas, estivemos num período de testes, e durante esse tempo ouvimos e aprendemos muito…, nada foi finalizado ainda, mas graças às melhorias implementadas estamos prontos para anunciar a 100ª função: acesso livre. Agora, qualquer um pode visitar o Google.com/ +, unir-se ao projeto e ligar-se com as pessoas com quem se preocupa” declara Gundotra.
Bom, sendo assim, para você amigo leitor entrar no Google+, basta acessar o portal e preencher os campos de login e senha; feito isto é só acessar. Mas o usuário também poderá utilizar o Google ID para acessar o programa, de maneira que todos os aplicativos da empresa continuarão integrados a partir de um único nome de usuário.
O Google acertou em apresentar essas informações, pois nos tempos em que os usuários estão perdendo a vontade de entrar nas redes sociais, a decisão do Google vem em uma ótima hora.

A importância das redes sociais para empresas

Muitos executivos de forma intuitiva tendem a perceber que o envolvimento pessoal e um diálogo aberto bem como a transparência são coisas elementares para umaempresa. Possuir este nível de apoio e integração é algo bastante interessante nos dias de hoje, pois o envolvimento executivo amplia o moral da empresa tornando o negocio bem mais produtivo.
Vamos dar algumas dicas  para os empresários que queiram ampliar o seu suporte de atendimento em mídia social tornando você mais sofisticado.

OUVIR É ESSENCIAL

O que torna um executivo um ser social? Estar antenado com o mercado, antecipando-se ao cliente e percebendo as necessidades de seus funcionários , proponde políticas para o incentivo da proatividade tornando assim sua empresa mais ativa e atuante. Mas para que isso possa acontecer ouvir é a parte mais importante do processo.

COMUNICAR INTERNA E EXTERNAMENTE

Possuir um CEO para tweets e blos é algo ideal, ações dentro das mídias sociais entusiasmam clientes e parceiros pois eles se sentem envolvidos com alguém do alto escalão de sua empresa.
O que realmente irá gerar o maior impacto e que cada funcionário irá se tornar um embaixador da empresa, pois eles terão acesso as mesmas informações e será muito fácil disseminá-las pelas redes sociais mas é claro que isso passará pela orientação de um gerente.

ESTEJA SEMPRE ABERTO E ACESSÍVEL

Ser um executivo acessível é algo fundamental para que se possua uma cultura de compartilhamento. Incentivando a equipe a estabelecer linhas diretas decomunicação. A especialista em mídia social Charlene Li realiza vários treinamentos com executivos ao redor do mundo focando justamente a comunicação on-line de empresários de alto nível. O seu site possui dicas muito úteis acesse!

TREINAMENTO É FUNDAMENTAL

Possuir um sistema de treinamento que não leve em consideração cargos para que seja garantido que os funcionários de todos os níveis da organização interajam possuindo uma linguagem consistente e clara com melhores práticas e políticas.

INICIANDO CONVERSAS

-Comece a fazer pequenas atualizações: idéias e reflexões sobre a industria, ou iniciativas estratégicas em torno da rede social.

  • Com o passar do tempo procure realizar atualizações simples e curtas na forma de posts, discutindo o que está acontecendo dentro de seu mundo, para isso se faz necessário ter um bom trabalho em equipe.
  • Esteja sempre pronto para um dialogo mais profundo e complexo, pois você está introduzindo uma politica de mídia social, portanto esteja sempre acessível e apto a responder perguntas difíceis.

Não é ficção, é realidade, teletransporte

De acordo com o dicionário de Oxford, teletransporte é o ato de transportar ou transportar-se instantaneamente entre dois pontos no espaço. Graças à grande quantidade de filmesde ficção já estamos familiarizados com este conceito. Mas como a física lida com isso? Antes de responder a essa pergunta, que é o eixo central deste artigo, introduzirei alguns conceitos históricos a respeito do teletransporte e seus princípios físicos.

UM POUCO DE HISTÓRIA

Assim como buracos negros, o teletransporte não era levado a sério pelos cientistas. Isso se deve, principalmente, ao fato de que o teletransporte viola uma das leis fundamentais da física quântica, o princípio da incerteza. Sendo impossível violar leis físicas, o teletransporte era considerado tema de ficção cientifica, mas isso durou pouco. O teletransporte deixou de ser ficção para se tornar ciência quando, em 1933, o físico Charles Bennette publicou no anual American Physical Society um artigo sobre a possibilidade do teletransporte. Charles, pesquisador da IBM na época, e sua equipe de seis cientistas confirmaram que, em teoria, o teletransporte quântico seria possível se o objeto transportado fosse destruído no processo. Nos anos subsequentes, uma gama de experimentos foi realizada em uma grande variedade de sistemasquânticos, provando experimentalmente a possibilidade do teletransporte.

A FÍSICA DO TELETRANSPORTE: EMARANHAMENTO E O PRINCÍPIO DA INCERTEZA

Para um dispositivo realizar o teletransporte ele necessariamente precisa atuar em nível quântico, transportando cada átomo e cada partícula do objeto. Isso além de ser um pesadelo do ponto de vista da engenharia é uma dor de cabeça para os físicos e matemáticos pois o mundo quântico ainda não é bem compreendido. Sendo assim, os cientistas precisam ter conhecimento das leis que regem o ultramicroscópico mundo da física quântica para que o teletransporte possa finalmente ser entendido. E é esse o objetivo deste pequeno capítulo, a introdução de conceitos necessários para o entendimento satisfatório do processo do teletransporte. Erwin Schrödinger foi o criador do conceito de emaranhamento que o definiu como uma capacidade de sistemas quânticos de exibirem correlações que não podem ser explicadas de forma clássica. Schrödinger falando sobre o emaranhamento escreveu: “Quando dois sistemas, cujos estados conhecemos através de seus representantes (funções de onda), entram em interaçãofísica temporária devido a forças conhecidas entre eles, e depois de um tempo de influência mútua os sistemas voltam a se separar, então eles não podem ser mais descritos da mesma forma que anteriormente, a saber, associando a cada um deles um representante próprio. Através da interação entre os dois representantes se tornam emaranhados.” O emaranhamento é uma das propriedades fundamentais da física quântica. Fisicamente o fenômeno do emaranhamento quântico é melhor definido como “uma qualidade de todo sistema físico que não pode ser representado como um produto tensorial simples dos elementos dos espaços de Hilbert multiplicados”. Mas o que isso quer dizer? De forma simplória mas não equivocada o emaranhamento surge a partir da interação entre dois sistemas quânticos que se tornam relacionados, fazendo com que ao falar-se de um seja necessário falar do outro graças a seu profundo estado de ligação. Esses sistemas após tornarem-se emaranhados irão interagir mutuamente entre si, de forma que, ao se alterar um dos estados emaranhados o outro será alterado instantemente devido a não-localidade quântica. A não-localidade é uma propriedade de sistemas quânticos emaranhados. Responsável pela chamada “ação a distância”, a não-localidade possibilita que dois estados emaranhados troquem informação independemente da distância entre eles. Devido a não-localidade quando em um sistema quântico uma função de onda é colapsada devido ao ato da medição, automaticamente seu estado “parceiro” será também colapsado. Podemos observar isso se tivermos, por exemplo, um par de elétrons entrelaçados e separados por uma grande distância. Ao se alterar as propriedades de um desses elétrons o outro automaticamente perceberá a alteração e mudará suas propriedades para se adaptar a nova situação. O emaranhamento é fundamental para o teletransporte quântico, uma vez que é este que permite que a informação seja transportada de um sistema para o outro entre sistemas entrelaçados. Enquanto o emaranhamento permite a possibilidade teórica do teletransporte, o próximo item, o princípio da incerteza, dificulta sua existência. Com o conceito de emaranhamento já bem esclarecido podemos tratar agora do princípio da incerteza. Criado em 1927 pelo físico Wener Heisenberg esse princípio é uma das leis mais fundamentais e importantes do mundo quântico. De forma resumida, ele torna o cálculo simultâneo de duas medidas quânticas impreciso pois quanto maior a precisão da medida, maior a perturbação criada nesse sistema devido a medição. Dessa forma, quando há precisão total o sistema foi totalmente deturpado tornando impossível a extração de qualquer informação útil. Por mais estranho que pareça, o princípio da incerteza não é causado por equipamentos imprecisos ou defeituosos ele é uma propriedade fundamental da natureza e não pode ser descartado. Quando Heisenberg publicou seu artigo sobre o princípio da incerteza ele, para explica-lo, disse: “Quando mais precisa é a posição, menos preciso é o conhecimento do momentum neste instante, e vice-versa.” O momentum ou momento linear de partícula pode ser obtido através do produto de massa vezes sua velocidade. Em uma experiência hipotética podemos, por exemplo, determinar com precisão a massa de uma partícula porém para isso teríamos que sacrificar toda chance de obter informações sobre a velocidade e localização dessa partícula.

O TELETRANSPORTE QUÂNTICO

Em um experimento padrão de teletransporte os físicos utilizam um laser apontado diretamente para um cristal com propriedades ópticas não lineares. Ocasionalmente os fótons serão convertidos em dois fótons de menor energia e, às vezes, esses fótons terão sua polarização entrelaçada. Depois, o laser é apontado para um espelho que refletirá a luz de volta ao cristal criando um segundo par. Por convenção os fótons do primeiro par são chamados de 2 e 3 e os fótons do segundo par são chamados de 1 e 4. O objetivo do experimento é teletransportar a polarização do fóton 1 para o fóton 3. Isso normalmente é obtido realizando uma medição dos fótons 1 e 2 o que alterará suas polarizações devido ao princípio da incerteza o que resultará na alteração da polarização do fóton 3 que está entrelaçado com os fótons 1 e 2 adquirindo assim sua polarização. Em outras palavras a polarização do fóton 1 que era desconhecida devido ao distúrbio no sistema causado pela medição foi teletransportada para o fóton 3.
http://oficinada.net//imagens/coluna/3317/tpscheme.gif
O problema do teletransporte quântico é que durante o processo o fóton 1 precisa ser destruído. A matéria nunca é transportada e sim sua informação, que cria uma réplica do fóton 1 no sistema dos fótons 2 e 3. Isso, claro, só é possível devido ao entrelaçamento, que age nos sistemas unindo-os intimamente. “Quando físicos teletransportaram fótons pela primeira vez em1997 eles tiveram que destruir esses fótons para garantir o sucesso do teletransporte. Agora, uma equipe na Universidade de Viena, conseguiu teletransportar fótons sem destruí-los. Jian-Wei Pan e seus colegas acreditam que seu método pode ser responsável pelo próximo passo no teletransporte a longas distâncias” (J-W Pan et al. 2003 Nature 421 721). A notícia a cima, retirada da revista Nature, mostra como eram as condições do teletransporte em 2003. Hoje em dia a situação está um pouco diferente. Mais partículas estão sendo entrelaçadas e transportadas e a distância entre elas também aumenta. Hoje partículas podem ser transportadas até 16km de distância, um feito sem dúvida extraordinário. Em 2004 equipes independentes na Australia e nos Estados Unidos conseguiram o que se parecia impensável: o teletransporte de átomos. Até então, somente fótons haviam sido teletransportados. No Instituto Niels Bohr, na Universidade de Copenhaguem, na Dinamarca, pesquisadores fizeram um importante experimento. Em 2006 o professor Eugene Polzik e sua equipe foram capazes de teletransportar um objeto macroscópico que continha trilhares de átomos por meio metro. Para realizar tal façanha Polzik e sua equipe utilizaram a luz como meio. O professor explica: “É um passo adiante porque pela primeira vez involve o teletransporte entre a luz e a matéria, que são dois objetos diferentes. Um carrega a informação e o outro a guarda”. Já em 2010 foi publicado na revista Nature um experimento de cientistas chineses que foram capazes de teletransportar fótons por 16 quilômetros. Utilizando a mesma técnica de entrelaçar fótons a equipe chinesa obteve êxito em melhorar o equipamento e aprimorar o parâmetros do experimento.