top of page
  • renatosaj

O futuro da computação - Processamento quântico






Computadores com processadores convencionais estão perdendo espaço quando lhe é demandado um processamento de grandes volumes de dados.

As limitações dos componentes convencionais devem-se principalmente por questões físicas e químicas estruturais que tornam possível os componentes eletrônicos funcionarem, é extremamente importante para que possamos impedir a derrocada dos avanços tecnológicos e estagnação dos recursos de processamento a troca e aprimoramento dos componentes, o próprio Gordon Earl Moore, co-fundador da Intel, ao determinar em seus estudos que o poder de processamento dos computadores convencionais dobraria a cada 18 meses, lei de Moore, não vislumbrava que o avanço dos processadores acabaria encontrando barreiras difíceis de serem transpassadas, nascida exatamente das maneiras tradicionais de conceber componentes de informática e que deram bases as teses de Moore. Gradualmente a solução está sendo desenvolvida oriunda da demanda por potência, avanços tecnológicos ligados a estruturas quânticas, a descobertas de novas técnicas de manuseios de elementos químicos e as tendências do mercado deram origem a uma nova visão computacional a Computação quântica.

Os sinais da derrocada da Lei de Moore sugerida em 1965 deu-se quando a IBM com o projeto Roadrunner alcança um processamento de 1,144 petaflops, algo que pode ser comparado aos cálculos gerados por nossos órgãos sensoriais. Foram utilizados 6.562 processadores dual core AMD Opteron associados a 12.240 chips da IBM (semelhantes ao utilizado no PlayStation 3) e quase 52 TB (TeraBytes) de memória RAM, seguindo os preceitos com a lei em 2019 deveríamos ter um décimo desse poder em casa, fica o questionamento analisando estes números será possível?

Outro fator que apontou a defasagem da lei, o principal elemento utilizado na construção de processadores, o silício já está chegando ao seu limite físico e químico inerente da própria estrutura do próprio substância da matéria, dentre as muitas soluções já apresentadas para a substituição do Silício, nesta postagem daremos ênfase na mais promissoras delas o nióbio. Este elemento químico do qual o Brasil é detentor de pouco mais de 98% de toda a reserva mundial passa por 15 processos diferentes para por fim ter o produto puro, na última etapa do processo é necessário que o material passar por um forno de fusão por feixe de elétrons que alcança 2500ºC, o produto puro ao ser exposto a temperaturas extremamente baixas (-273º Celsius), beirando ao 0 absoluto numa diferença de 15 º C, possui condutividade muito superior ao silício.


 

O que são computadores quânticos?


Contamos com alguns algumas iniciativas visando alcançar o topo da computação quântica dentre eles estão gigantes como Google, Microsoft e Intel investindo pesado tentando desenvolve esta tecnologia, encontramos também no mercado startups que já ocupam parte deste mercado tais como a Rigetti Computing, Zapata Computing e por último a D-Wave Systems, Inc., esta última produz e comercializam computadores quânticos, os clientes mais famosos são o próprio Google e a Nasa, a capacidade desses computadores atualmente é de 16 qubits, pode parecer pouco mas com o potencial de cada qubit assumir ambos estados binários (1 e 0) torna a capacidade de calcular vários problemas ao mesmo tempo imensurável, processando diversas questões em espaços de tempo muito curtos é possível pelo dinamismo dos qubits, diferentemente da forma linear e individualizada que os computadores atuais tem em resolver questões que além de demandar mais tempo por assumir um único estado binário por vez, por exemplo, imagine que vá viajar e precise encontrar a melhor passagem, calcular quantos dias ficar em cada hotel para minimizar custos, quanto tempo permanecer em cada ponto turístico, em um computador tradicional cada resposta deveria ser respondida por vez gerando um afunilamento de perguntas no processador, por outro lado em um computador quântico cada questão ocuparia um Qubit de forma a obter todas as respostas mais rápido e simultaneamente.


O princípio do qubit passa pela seguinte lógica, enquanto os atuais computadores tem a capacidade de entender um valor binário (bit) por vez (1 ou 0), o computador quântico pode interpretar ambos os estados ao mesmo tempo (1 e 0) há uma superposição dos bits de forma que os qubits tem poder para processar informações milhões de vezes mais rápido que os mais potentes computadores atuais, muitos explicam essa visão de superposição de bit pela teoria do gato de Schrödinger, essa teoria, em resumo, determina que se colocarmos um gato dentro de uma caixa na qual se encontra um mecanismo de dispersão de veneno com 50% de chances de expelir ou não o gás mortal, matando o gato, até nossa ação de olhar o interior dela interferindo na dinâmica do experimento e determinando a vida ou morte do animal, ele se encontra num estado de superposição, vivo e morto ao mesmo tempo. Assumindo as duas propriedades a correspondência entre elas fica mais fácil de ser retirada, compreendida e submetida a um novo processo gerando assim um ciclo.

Utilizaremos o computador quântico da empresa D-ware que já encontramos no mercado.



O computador quântico da D-Ware se divide em 3 partes como podemos ver no vídeo acima a primeira é o rack de acesso, no qual o usuário poderá enviar e retirar os dados, em sua segunda parte está os mecanismos de resfriamento e por fim a câmara de isolamento. Variações térmicas, magnéticas e de vibrações podem desalinhar átomos e afetar o processador fazendo-o menos preciso nas respostas, por esse motivo a empresa investiu muito em formas de isolar o processador o máximo possível.


Em sua câmara de isolamento, o mecanismo térmico cria um vácuo que a empresa diz, segundo o site da D-wave, ser 180 vezes mais frio que o espaço interestelar. O isolamento magnético do processador é formado por escamas de material que diminui o fluxo magnético a 1 nanotesla, 50 mil vezes menor que o campo magnético terrestre, haja vista que o próprio campo magnético da terra interfere na precisão do processador.

Todas essas informações podem ser encontrados no site da empresa, especificando os componentes e métodos desenvolvidos.



 

O que esperar da segurança de dados na era quântica?





Vimos que a capacidade de resoluções é muito maior que os computadores convencionais baseados em bits, o questionamento é como os computadores quânticos podem afetar um sistema de criptografia fundamentada em bit? O blog de uma das maiores empresas de segurança digital do mundo a Kaspersky fez um alerta sobre o advento da computação quântica no nosso sistema atual. Os atuais sistemas de criptografia se baseia na fatoração de números primos a partir do produto, esta é uma operação assimétrica em temos de computação, é uma tarefa de verificação rápida que por meio da multiplicação de números é possível descobrir os fatores e geralmente levam muito tempo, uma vez que a as chaves tem minimamente 512 bits de comprimento, a estimativa é de que 100 qubits são necessários para fatorar essas chaves em minutos, sendo a maior vítima de hackeamento quântico a tecnologia de blockchain. Salientamos que a lei de Moore continua vigente para os computadores quânticos, portanto os não demorará muito para que os 16 qubits comercializados hoje possam chegar ao mercado. Para evitar isso já há planos para tornar os reguladores mais resistentes ao quântico e até o surgimento de novos, enquanto isso está em estudo combinar as tecnologias de criptografia existentes como a RSA com chaves de comprimentos apropriados e, por exemplo, algoritmos baseados em curvas elípticas (ECC). O primeiro sistema de criptografia (RSA) não pode ser quebrado por métodos tradicionais, enquanto o segundo é a prova de quântico (ECC), apesar de ser vulnerável aos convencionais.

A agência nacional de segurança (NSA) dos Estados Unidos da América vislumbrando esse problema já iniciaram os preparativos para sua transição a uma criptografia quântica-resistente, o anúncio de que um computador quântico seria capaz de decodificar chaves públicas utilizadas para implantar chaves e assinaturas digitais foi um prenuncio de que essa questão deve ser tratada com prioridade pois afetaria a segurança do país e por esse motivo o Estado norte americano deveria colocar essa questão em seus planos de orçamento, manutenção e logísticas a longo prazo.

A maior mudança vem na transmissão de dados que fica muito mais segura, a complexidade e fragilidade quântica é de suma importância durante a transmissão uma vez que qualquer tentativa de medir aspectos da partícula ou alteração do mesmo gera instabilidade nos fótons e como consequência há o colapso do mesmo. Assim a tentativa de invasão aos dados será frustada pelos princípios dessa tecnologia.


 

Brayner e sua empresa





Cabe a nós refletir qual é o futuro que nossa empresa ou industria pode seguir?

Só os caminhos da modernização e integração levam a segurança que seu patrimônio merece, entre em contato conosco para elaborarmos juntos diretrizes que perpetuarão os seus negócios a frente da concorrência.

Acesse nosso site, preencha o formulário e juntos construiremos uma nova face tecnológica para sua empresa.

1 visualização0 comentário

Posts recentes

Ver tudo
bottom of page