O que vem a ser a Memória de acesso Aleatório?
A memória de acesso randômico (pt-BR) ou de acesso aleatório (pt-PT) (do inglês Random Access Memory, frequentemente abreviado para RAM), ou seja, é um local de armazenamento temporário de informações digitais que é usado pelo processador para armazenar informações temporariamente, é mais rápido de acessar que HD, DVD, pendrive (permite leitura e escrita rápida de informações), e é usado como memória principal . sistema eletrônico digital.
A RAM é um componente essencial em diversos tipos de dispositivos, tais como: computadores pessoais, computadores servidores, smartphones, pois é basicamente onde são armazenados os programas operacionais básicos. Independentemente da quantidade de espaço de armazenamento disponível, na forma de HDD, SSD ou memória flash, sempre é necessária uma certa quantidade de RAM.
O termo acesso aleatório refere-se à capacidade de acessar qualquer local a qualquer momento, em oposição ao acesso sequencial imposto por alguns dispositivos de armazenamento, como fitas. Esse nome é inadequado porque outros tipos de memória (como ROM) também permitem acesso aleatório ao seu conteúdo. O nome mais apropriado é: Memória de Leitura e Gravação, que é representada pela programação do computador.
Embora o conceito de memória operacional de acesso aleatório seja bastante amplo, o termo atualmente é usado apenas para definir os dispositivos eletrônicos que o implementam, uma vez que essa memória está atualmente espalhada por todo o sistema dos computadores atuais (um sistema pode ser considerado um ” sobrecarregado”, tanto quanto humanos), basicamente um tipo específico de chip. Nesse caso, também implica que se trata de uma memória volátil e, quando a alimentação da memória é desligada, todo o seu conteúdo é perdido. A memória principal de um computador baseado na arquitetura von Neumann consiste em RAM. É nesta memória que são carregados os programas em execução e seus dados de usuário.
Como esta é uma memória volátil, seus dados serão perdidos quando o computador for desligado. Para evitar a perda de dados, é necessário salvar as informações em uma mídia não volátil, como um disco rígido.
O processador o utiliza para armazenar arquivos e programas que estão sendo processados. A quantidade de RAM disponível tem um grande impacto no desempenho, pois sem RAM suficiente, o sistema usa memória virtual, que é lenta. A principal característica da RAM é que ela é volátil, o que significa que os dados são perdidos quando o computador é reiniciado. Na hora do boot, todo o processo de carregamento precisa ser refeito para mover o sistema operacional e os aplicativos usados do HD para a memória para execução pelo processador.
Os chips de memória são vendidos como cartões de memória. Os pentes estão disponíveis em várias capacidades e geralmente a placa tem dois ou três slots disponíveis. Por exemplo, existe uma forma de instalar um memory stick de 1 GB junto com os 512 MB que acompanham o computador, totalizando 1.536 MB.
Sua história
1 chip Megabit U61000D – um dos últimos modelos desenvolvidos pela VEB Carl Zeiss Jena em 1989.
Os primeiros computadores usavam relés, contadores mecânicos ou linhas de atraso para funções de memória principal. As linhas de atraso ultrassônicas são dispositivos seriais que só podem reproduzir dados na ordem em que foram gravados. A memória do tambor pode ser expandida a um custo relativamente baixo, mas a recuperação eficiente de itens de memória requer conhecimento do layout físico do tambor para otimizar a velocidade. Travas feitas de triodos de tubo de vácuo e transistores discretos posteriores foram usados para memórias menores e mais rápidas, como registros. Esses registros são relativamente grandes e muito caros para usar em grandes aplicações a quantidade de dados; geralmente apenas dezenas ou centenas de bits dessa memória estão disponíveis.
A quantidade de dados; geralmente apenas dezenas ou centenas de bits dessa memória estão disponíveis.
A primeira forma prática de memória de acesso aleatório foi o tubo de Williams em 1947. Ele armazena dados como pontos carregados na superfície do tubo de raios catódicos. Como o feixe de elétrons do CRT pode ler e escrever os pontos no tubo em qualquer ordem, a memória é acessada aleatoriamente. Os tubos Williams variam em capacidade de algumas centenas de bits a cerca de mil bits, mas são menores, mais rápidos e mais eficientes em termos de energia do que usar uma única trava de tubo de vácuo. Desenvolvido pela Universidade de Manchester, Inglaterra, o tubo Williams forneceu o meio para implementar o primeiro programa armazenado eletronicamente no Manchester Baby Computer, que executou o programa com sucesso pela primeira vez em 21 de junho de 1948. Os bebês são um teste de memória que comprova a confiabilidade.
A memória de núcleo magnético foi inventada em 1947 e desenvolvida até meados da década de 1970, quando se tornou uma forma comum de memória de acesso aleatório que dependia de uma matriz de anéis magnetizados. Alterando a direção de magnetização de cada anel, os dados podem ser armazenados com um bit por anel. Como cada anel tem uma combinação de linhas de endereço para selecioná-lo e lê-lo ou escrever nele, qualquer local de memória pode ser acessado em qualquer ordem. A memória de núcleo magnético era a forma padrão de sistemas de armazenamento de computador até ser substituída pela memória semicondutora de estado sólido MOS (metal-óxido-silício) em circuitos integrados (ICs) no início da década de 1970.
Antes do desenvolvimento de circuitos integrados de memória somente leitura (ROM), a memória de acesso aleatório permanente (ou somente leitura) era tipicamente construída usando matrizes de diodos acionadas por decodificadores de endereço ou planos de memória de cadeia de núcleo especialmente enrolados.
A memória de semicondutores começou na década de 1960 com a memória bipolar usando transistores bipolares. Embora melhore o desempenho, não pode competir com a memória de núcleo magnético de preço mais baixo.
Basicamente, existem dois tipos de memória em uso: SDR e DDR. O SDR é o tipo tradicional em que o controlador de memória realiza apenas uma leitura por ciclo, enquanto o DDR é mais rápido porque realiza duas leituras por ciclo. O desempenho não dobrou, pois o acesso inicial continuou demorando o mesmo, mas melhorou muito. Sticks SDR são usados em computadores mais antigos: Pentium II e Pentium III e primeiro slot A Athlons e Durons. Como não estão mais em produção, atualmente são mais raros e mais caros que o DDR, semelhante aos antigos pentes de 72 vias usados na era do Pentium 1.
As revistas SDR e DDR são fáceis de distinguir porque o SDR tem dois chanfros enquanto o DDR tem apenas um. Essa diferença também impossibilita a substituição das bolas instalando erroneamente um stick DDR em uma placa-mãe que usa SDR e vice-versa. Recentemente, uma nova migração ocorreu com a introdução de memory sticks DDR2. Neles, o barramento de acesso à memória opera duas vezes mais que o próprio chip de memória. Isso permite duas leituras por ciclo, acessando dois endereços diferentes. Como a capacidade de realizar duas transferências por ciclo, que foi introduzida na memória DDR, é preservada, a memória DDR2 é capaz de realizar um total de 4 leituras por ciclo, uma marca impressionante. Há também benefícios menores, como menor consumo de energia, que são úteis em laptops.
Os cartões de memória DDR2 não são compatíveis com placas-mãe mais antigas. Eles têm mais contatos (240 no total versus 184 no magazine DDR) e um local diferente para o chanfro central, para que você não os monte por engano em uma placa antiga. Muitos sticks são vendidos com dissipadores de calor de metal, que ajudam a dissipar o calor e permitem que os módulos funcionem em frequências mais altas.
Os cartões de memória DDR3 têm o dobro da taxa de transferência do DDR2. Queda de tensão de 1,8 V para memória DDR2 para 1,5 V para DDR3
O tipo DDR3 tem a mesma percepção que o DDR2, ele dobra a quantidade de operações por vez em relação ao padrão anterior, ou seja, 8 leituras ou gravações por ciclo de clock, 4 no início e 4 no final de quatro.
Eles são comumente encontrados em chips usando pacotes CSP (chip scale package) e montagens FBGA (fine pitch ball grid array), e sua principal característica é que os terminais do chip são pequenas soldas. O benefício disso é que os sinais elétricos fluem mais facilmente e há menos chance de danos físicos.
capacidade e velocidade
Capacidade de memória em bytes, kilobytes (1 KB = 1024 ou 210 bytes), megabytes (1 MB = 1024 KB ou 220 bytes), gigabytes (1 GB = 1024 MB ou 230 bytes) e terabytes (1 TB = 1 024 GB ou 2 x 40 bytes).
A velocidade de operação da memória é medida em Hz ou MHz. Este valor está relacionado ao número de blocos de dados que podem ser transferidos em um segundo. No entanto, algumas RAMs podem realizar duas transferências de dados no mesmo ciclo de clock, dobrando a taxa de transferência de informações na mesma frequência de operação. Além disso, colocar a memória em paralelo (uma propriedade de algumas arquiteturas de sistema) permite que a velocidade aparente da memória seja multiplicada.
A memória cache
Top LR, DDR2 com dissipador de calor, DDR2 sem dissipador de calor, Laptop DDR2, DDR, DDR Laptop
De qualquer forma, apesar de todas as evoluções, a RAM ainda é muito mais lenta que os processadores. Para atenuar a diferença, são utilizados dois níveis de memória tipo cache, incluídos no próprio processador: cache L1 e cache L2. O cache L1 é muito rápido, próximo da frequência nativa do processador. Na verdade, ambos operam na mesma frequência, mas as informações armazenadas em L1 levam vários ciclos de clock para chegar à unidade de processamento. No caso do Pentium 4, ele vai ao extremo ao armazenar instruções já decodificadas em L1: ocupam mais espaço, mas eliminam esse tempo inicial. De um modo geral, quanto mais rápido o cache, mais espaço ele ocupa e menos processador ele pode conter. É por isso que o Pentium 4 inclui apenas um total de 20 KB de cache L1 ultrarrápido, enquanto o cache um pouco mais lento usado no Sempron é de 128 KB.
Em seguida vem o cache L2, que é um pouco mais lento tanto em termos de tempo de acesso (o tempo que leva para iniciar uma transferência) quanto de largura de banda, mas é mais econômico em termos de transistores, permitindo que seja mais utilizado. A quantidade de cache L2 usada varia de acordo com o processador. Enquanto a maioria dos modelos Sempron usa apenas 256 KB, os modelos Core 2 Duo mais caros têm 4 MB completos.
paridade de memória
É um método usado para corrigir erros de memória. É o método mais antigo que apenas identifica erros, não os corrige, e envolve adicionar um bit de controle ao final de cada byte de memória.
A operação de verificação de dados de paridade é muito simples: conte o número de bits “1” por byte. O bit de paridade tem o valor “0” se for par, e o 9º bit tem o valor “1” se for ímpar. Quando solicitado pelo processador, os dados são verificados pelo circuito de paridade, que verifica se o número de bits “1” corresponde ao número de bits armazenados no 9º bit. Se encontrar uma alteração nos dados, ele enviará uma mensagem de erro ao processador.
Este método não é completamente eficiente porque não pode detectar mudanças no número de bits que mantêm a paridade. Se os dois bits zero retornados se tornarem um, o circuito de paridade não notará a mudança nos dados. Felizmente, é muito improvável que dois ou mais bits sejam alterados ao mesmo tempo.
O uso da paridade não deixa o computador lento, pois o circuito responsável pela verificação dos dados é independente do restante do sistema. Seu único efeito colateral é o aumento da memória, em vez de 8 bits por byte, agora são 9 bits, e o custo é 12% a 60% maior.
Dispositivo ECC-(Código de correção de erro) – Código de correção de erro. Código de detecção, onde uma combinação de pulsos que proíbe adicionar ou perder 1 bit indica qual bit está errado.
Além do custo, a paridade não permite a correção de erros, apenas a identificação de erros, o que reduz sua utilidade. O aumento do nível de boa confiabilidade dos novos módulos de memória tornou a memória com paridade obsoleta.