Neste artigo, você vai entender o que é a Lei de Moore, como esse conceito influenciou no desenvolvimento tecnológico das últimas décadas e mais…
Para começar, na verdade, a “Lei de Moore” não é propriamente uma lei física ou algo assim. Essa história começou quando o presidente da Intel, Gordon Earl Moore, estabeleceu uma ideia, dizendo que o número de transistores em um circuito integrado dobraria a cada 24 meses. Em outras palavras, a capacidade de processamento dos computadores iria dobrar a cada 2 anos.
Veja: não se trata de uma lei no sentido literal, porque este desenvolvimento é completamente dependente da ação das empresas, ou seja, investimentos financeiros. Assim, se as grandes corporações tecnológicas, por qualquer motivo, decidissem que não iriam investir o suficiente para cumprir essa meta, simplesmente não aconteceria.
No entanto, o efeito provocado por essa “profecia”, digamos assim, foi justamente que as empresas — fabricantes de memória RAM, processadores, placas de vídeo, etc.— se empenharam em cumprir essa “lei”, estabelecendo-a como objetivo ano após ano; ou melhor, de 2 em dois anos.
Dessa maneira, rapidamente, os dispositivos foram evoluindo e cada vez mais transistores podiam ser colocados numa mesma área desses materiais eletrônicos.
Aliás, algo interessante a se destacar é que, há algum tempo atrás, enquanto a capacidade de processamento crescia, os dispositivos como smartphones diminuíam de tamanho. Isso acontecia porque veio se tornando possível que tivéssemos cada vez mais capacidade de hardware em áreas eletrônicas cada vez menores. E, como aparelhos menores atendiam melhor à moda, a indústria comercializava muitos celulares pequenos.
Depois os Smartphones (e similares) começaram a aumentar de tamanho novamente, mas apenas seguindo a tendência popular. O fato é que hoje podemos ter dispositivos bem pequenos, mas altamente poderosos.
Para resumir, a Lei de Moore tem ditado o ritmo dos avanços da computação nas últimas décadas, mas há uma teoria que diz que se Moore nunca tivesse levantado essa questão, este padrão de desenvolvimento nunca teria sido seguido e as grandes fabricantes tecnológicas não teriam investido o equivalente para que isso acontecesse.
A Lei de Moore está chegando ao fim?
Bom… A Lei de Moore tem se mostrado válida até hoje. Todavia, não é possível dizer que ela continuará valendo nos próximos anos. Na verdade, muitos cientistas da computação consideram que já chegou ao fim. Inclusive, Charles Leiserson, do MIT, pensa desta forma.
Para manter o ritmo acelerado de desenvolvimento durante tantos anos, a indústria da computação já enfrentou muitos problemas, já que a fabricação de componentes como os transistores cada vez menores se tornava cada vez mais difícil. Além disso, muito foi investido em pesquisas para driblar fenômenos quânticos indesejáveis, como elétrons que vagam onde não deveriam.
Dessa forma, ao longo dos anos, os esforços para a sustentação da Lei de Moore precisaram ser multiplicados, mas, finalmente, este conceito parece estar chegando ao fim gradativamente…
Uma alternativa que enche os olhos de muita gente são os computadores quânticos. Será que eles um dia vão funcionar? Isso é assunto para um outro artigo.
O fim da Lei de Moore não significa o fim da evolução da computação
O limite físico é uma realidade que os cientistas precisarão enfrentar em breve e quando olhamos para o futuro, diante de incertezas como essa, o que observamos é um horizonte nebuloso.
No entanto, mesmo que a indústria atinja o limite físico nos próximos anos, há muita coisa para se evoluir considerando outras variáveis. Veja a seguir:
Softwares
Como você já deve saber, os softwares são o que torna o hardware útil para o ser humano. Sem os programas para gerir a circulação de informações em forma de bits, o computador mais potente do mundo seria nada mais que sucata.
Então, é de certo que os softwares ainda têm muito para evoluir, se tornando cada vez mais otimizados. Isso significa que os softwares ainda podem continuar se tornando melhores e gastando menos memória.
O material
O material majoritariamente utilizado para a fabricação de semicondutores e de dispositivos eletrônicos em geral é o cilício, que é um material barato e atende muito bem as necessidades da computação.
No entanto, a utilização de outros materiais pode ser a chave para tornar os hardwares mais proficientes. O grafeno, por exemplo, é um dos materiais mais promissores da indústria da computação. Estudos têm sido feitos com este material e isso pode significar um grande avanço na tecnologia, pois, entre outras qualidades, o grafeno tem potencial para tornar os dispositivos eletrônicos ainda mais poderosos em termos de processamento.
0 Comentários