De Filecoin, Arweave a Walrus, Shelby: a evolução e as perspectivas futuras do armazenamento descentralizado
O armazenamento foi uma das áreas mais populares da indústria de blockchain. Filecoin, como o projeto líder da última alta do mercado, teve um valor de mercado que ultrapassou os 10 bilhões de dólares. Em comparação, a Arweave, que se destaca pelo armazenamento permanente, atingiu um valor de mercado máximo de 3,5 bilhões de dólares. No entanto, à medida que a disponibilidade de armazenamento de dados frios começou a ser questionada, o futuro do armazenamento descentralizado também ficou em dúvida. Recentemente, o surgimento do Walrus trouxe uma nova atenção para a área de armazenamento que estava adormecida há muito tempo, enquanto o projeto Shelby, lançado em parceria entre a Aptos e a Jump Crypto, tenta alcançar novos avanços no armazenamento de dados quentes. Este artigo analisará o caminho de evolução do armazenamento descentralizado a partir do desenvolvimento desses projetos representativos e discutirá suas perspectivas futuras.
FIL: a essência da moeda minerada sob a pele do armazenamento
FIL é um dos primeiros projetos de blockchain a emergir, com seu desenvolvimento centrado na Descentralização. O FIL tenta transformar o armazenamento centralizado em armazenamento descentralizado, mas as concessões feitas para alcançar a descentralização nesse processo tornaram-se os pontos problemáticos que os projetos subsequentes tentam resolver.
IPFS: arquitetura Descentralização, mas limitada por gargalos de transmissão
IPFS( Sistema de Arquivos Interplanetário) foi lançado em 2015, com o objetivo de revolucionar o protocolo HTTP tradicional através da endereçamento de conteúdo. No entanto, a maior desvantagem do IPFS é a sua velocidade de obtenção extremamente lenta. Em uma era em que os provedores de serviços de dados tradicionais podem alcançar respostas em milissegundos, o IPFS ainda leva dezenas de segundos para obter um arquivo, o que dificulta sua promoção em aplicações práticas.
O IPFS é principalmente adequado para "dados frios", ou seja, conteúdo estático que não muda com frequência. No entanto, ao lidar com dados quentes, como páginas da web dinâmicas, jogos online ou aplicações de IA, o protocolo P2P não apresenta vantagens significativas em relação aos CDN tradicionais.
Apesar de o IPFS não ser uma blockchain em si, o conceito de design de gráfico acíclico direcionado (DAG) que adota está altamente alinhado com muitas blockchains e protocolos Web3, tornando-o adequado como uma estrutura de construção subjacente para blockchain.
Lógica das moedas mineradas sob o manto de armazenamento
No modelo de economia de tokens do Filecoin, existem três papéis principais: os usuários pagam taxas para armazenar dados; os mineradores de armazenamento recebem incentivos em tokens por armazenar os dados dos usuários; os mineradores de recuperação fornecem dados quando os usuários precisam e obtêm incentivos.
Este modelo apresenta um espaço potencial para comportamentos maliciosos. Os mineradores de armazenamento podem, após fornecer espaço de armazenamento, preencher com dados inúteis para obter recompensas. Como esses dados inúteis não serão recuperados, mesmo que sejam perdidos, não ativarão o mecanismo de penalização. Isso permite que os mineradores de armazenamento excluam dados inúteis e repitam esse processo. O consenso de prova de replicação do FIL só pode garantir que os dados do usuário não foram excluídos de forma não autorizada, mas não pode impedir que os mineradores preencham com dados inúteis.
A operação do Filecoin depende em grande parte do investimento contínuo dos mineradores na economia dos tokens, em vez de se basear na demanda real dos usuários finais por armazenamento descentralizado. Embora o projeto ainda esteja em iteração contínua, nesta fase, a construção do ecossistema do Filecoin se alinha mais à definição de um projeto de armazenamento "baseado em mineração" do que "direcionado por aplicações".
Arweave: nasce do longo prazo, perece do longo prazo
Se o objetivo de design do Filecoin é construir uma "nuvem de dados" descentralizada e incentivada, então o Arweave leva o armazenamento em outra direção extrema: fornecendo a capacidade de armazenamento permanente para os dados. O Arweave não tenta construir uma plataforma de computação distribuída; todo o seu sistema gira em torno de uma hipótese central — dados importantes devem ser armazenados uma única vez e permanecer para sempre na rede. Esse extremo longo-prazismo faz com que o Arweave, desde os mecanismos até o modelo de incentivos, passando pelas necessidades de hardware até a narrativa, seja drasticamente diferente do Filecoin.
Arweave utiliza o Bitcoin como objeto de estudo, tentando otimizar continuamente a sua rede de armazenamento permanente ao longo de longos períodos contados em anos. Arweave não se importa com marketing, nem com concorrentes ou as tendências do mercado. Está apenas avançando constantemente na iteração da arquitetura da rede, mesmo que ninguém se importe, porque essa é a essência da equipe de desenvolvimento da Arweave: o longo prazo. Graças ao longo prazo, Arweave foi amplamente popular durante o último mercado em alta; e também por causa do longo prazo, mesmo caindo a níveis baixos, Arweave ainda pode sobreviver a várias oscilações de alta e baixa. Mas será que no futuro o armazenamento descentralizado terá um lugar para a Arweave? O valor da existência do armazenamento permanente só pode ser provado pelo tempo.
A mainnet do Arweave foi de versão 1.5 para a mais recente 2.9, embora tenha perdido o calor das discussões de mercado, tem-se esforçado para permitir que um maior número de mineradores participe da rede com o menor custo possível e incentive os mineradores a armazenar dados ao máximo, melhorando continuamente a robustez de toda a rede. O Arweave, ciente de que não atende às preferências de mercado, adotou uma abordagem conservadora, não abraçando a comunidade de mineradores, com o ecossistema completamente estagnado, atualizando a mainnet com o menor custo possível, enquanto reduz continuamente a barreira de hardware sem comprometer a segurança da rede.
Revisão do caminho de atualização de 1.5-2.9
A versão 1.5 do Arweave expôs uma vulnerabilidade em que os mineradores podiam confiar na empilhagem de GPUs em vez de armazenamento real para otimizar as chances de mineração de blocos. Para conter essa tendência, a versão 1.7 introduziu o algoritmo RandomX, limitando o uso de poder computacional especializado e exigindo que CPUs genéricas participassem da mineração, enfraquecendo assim a centralização do poder computacional.
Na versão 2.0, o Arweave adotou SPoA, transformando a prova de dados em um caminho simplificado de estrutura de árvore de Merkle e introduzindo transações de formato 2 para reduzir a carga de sincronização. Esta arquitetura aliviou a pressão da largura de banda da rede, aumentando significativamente a capacidade de colaboração dos nós. No entanto, alguns mineradores ainda podem evitar a responsabilidade de manter dados reais através de estratégias de pools de armazenamento centralizados de alta velocidade.
Para corrigir essa tendência, a versão 2.4 introduziu o mecanismo SPoRA, que trouxe um índice global e acesso aleatório lento a hashes, fazendo com que os mineradores precisassem realmente possuir blocos de dados para participar da validação de blocos, enfraquecendo assim o efeito de empilhamento de poder computacional. Como resultado, os mineradores começaram a se concentrar na velocidade de acesso ao armazenamento, impulsionando a aplicação de SSDs e dispositivos de leitura e gravação de alta velocidade. A versão 2.6 introduziu o controle do ritmo de validação de blocos por meio de uma cadeia de hashes, equilibrando a eficiência marginal de dispositivos de alto desempenho e proporcionando um espaço de participação justo para mineradores de médio e pequeno porte.
As versões subsequentes reforçam ainda mais a capacidade de colaboração na rede e a diversidade de armazenamento: a 2.7 adiciona mineração colaborativa e mecanismos de pool de mineração, aumentando a competitividade dos pequenos mineradores; a 2.8 lança um mecanismo de empacotamento composto, permitindo que dispositivos de alta capacidade e baixa velocidade participem de forma flexível; a 2.9 introduz um novo processo de empacotamento no formato replica_2_9, melhorando significativamente a eficiência e reduzindo a dependência computacional, completando o ciclo do modelo de mineração orientado a dados.
De uma forma geral, o caminho de atualização do Arweave apresenta claramente sua estratégia de longo prazo orientada para o armazenamento: ao resistir continuamente à tendência de concentração de poder computacional, reduz constantemente as barreiras de entrada, garantindo a viabilidade da operação do protocolo a longo prazo.
Walrus: abraçar dados quentes é uma especulação ou contém um grande segredo?
A filosofia de design do Walrus é completamente diferente da do Filecoin e do Arweave. O ponto de partida do Filecoin é criar um sistema de armazenamento descentralizado e verificável, com o custo de armazenamento de dados frios; o ponto de partida do Arweave é criar uma biblioteca de Alexandria em cadeia que possa armazenar dados permanentemente, com o custo de haver poucos cenários; por outro lado, o ponto de partida do Walrus é otimizar os custos de armazenamento do protocolo de armazenamento de dados quentes.
Modificação mágica do código de correção: inovação de custo ou novo vinho em garrafa velha?
Em termos de design de custos de armazenamento, a Walrus considera que os custos de armazenamento do Filecoin em comparação com o Arweave são irracionais. Ambos utilizam uma arquitetura de replicação completa, cuja principal vantagem é que cada nó possui uma cópia completa, proporcionando uma forte capacidade de tolerância a falhas e independência entre os nós. Esse tipo de arquitetura garante que, mesmo que alguns nós fiquem offline, a rede ainda mantenha a disponibilidade dos dados. No entanto, isso também significa que o sistema precisa de redundância de múltiplas cópias para manter a robustez, o que eleva os custos de armazenamento. Especialmente no design do Arweave, o próprio mecanismo de consenso incentiva o armazenamento redundante dos nós, para aumentar a segurança dos dados. Em contraste, o Filecoin é mais flexível no controle de custos, mas a um custo em que um armazenamento de baixo custo pode apresentar um risco maior de perda de dados. A Walrus tenta encontrar um equilíbrio entre os dois, com seu mecanismo controlando os custos de replicação enquanto aumenta a disponibilidade por meio de redundância estruturada, estabelecendo assim um novo caminho de compromisso entre a disponibilidade dos dados e a eficiência de custos.
A Redstuff, criado pelo Walrus, é uma tecnologia chave para reduzir a redundância de nós, originada da codificação Reed-Solomon(RS). A codificação RS é um algoritmo de código de correção de erros muito tradicional; o código de correção de erros é uma técnica que permite duplicar um conjunto de dados através da adição de fragmentos redundantes(erasure code), podendo ser utilizada para reconstruir os dados originais. Desde CD-ROMs a comunicações por satélite e códigos QR, ela é frequentemente utilizada no dia a dia.
A codificação de correção de erros permite que os usuários obtenham um bloco, por exemplo, de 1MB, e depois o "ampliem" para 2MB, onde 1MB extra é chamado de dados especiais de codificação de correção de erros. Se qualquer byte do bloco se perder, o usuário pode recuperar facilmente esses bytes através do código. Mesmo que até 1MB do bloco se perca, o bloco inteiro pode ser recuperado. A mesma técnica permite que os computadores leiam todos os dados em um CD-ROM, mesmo que este esteja danificado.
Atualmente, o mais comum é a codificação RS. O método de implementação é começar com k blocos de informação, construir um polinómio relacionado e avaliá-lo em diferentes coordenadas x para obter os blocos codificados. Usando códigos de correção de erros RS, a probabilidade de amostrar aleatoriamente grandes blocos de dados perdidos é muito pequena.
Qual é a principal característica do algoritmo de codificação RedStuff? Através da melhoria do algoritmo de codificação de correção de erros, o Walrus consegue codificar rapidamente e de forma robusta blocos de dados não estruturados em fragmentos menores, que são armazenados distribuídos em uma rede de nós de armazenamento. Mesmo que até dois terços dos fragmentos sejam perdidos, é possível reconstruir rapidamente o bloco de dados original usando fragmentos parciais. Isso se torna possível mantendo o fator de replicação em apenas 4 a 5 vezes.
Portanto, é razoável definir o Walrus como um protocolo leve de redundância e recuperação redesenhado em torno de um cenário de Descentralização. Em comparação com códigos de correção de erros tradicionais ( como Reed-Solomon ), o RedStuff não busca mais uma consistência matemática rigorosa, mas faz um compromisso realista em relação à distribuição de dados, verificação de armazenamento e custo computacional. Este modelo abandona o mecanismo de decodificação instantânea necessário para o agendamento centralizado, passando a verificar on-chain se os nós possuem cópias específicas de dados, adaptando-se assim a uma estrutura de rede mais dinâmica e marginalizada.
O núcleo do design do RedStuff é dividir os dados em duas categorias: fatias principais e fatias secundárias. As fatias principais são usadas para recuperar os dados originais; sua geração e distribuição estão sujeitas a restrições rigorosas, com um limite de recuperação de f+1, e requerem 2f+1 assinaturas como endosse de disponibilidade; as fatias secundárias, por sua vez, são geradas por meio de operações simples como combinações XOR, e têm a função de fornecer tolerância a falhas elástica, melhorando a robustez geral do sistema. Essa estrutura, em essência, reduz os requisitos de consistência dos dados - permitindo que diferentes nós armazenem temporariamente diferentes versões dos dados, enfatizando a trajetória prática da "consistência final". Embora semelhante aos requisitos mais flexíveis para blocos retroativos em sistemas como o Arweave, obtenha um certo efeito na redução da carga da rede, mas ao mesmo tempo enfraquece a garantia de disponibilidade imediata e integridade dos dados.
Não se pode ignorar que, embora o RedStuff tenha conseguido um armazenamento eficaz em ambientes de baixa potência de computação e baixa largura de banda, ele ainda é, em essência, uma "variante" de um sistema de códigos de correção de erro. Ele sacrifica uma parte da determinabilidade na leitura de dados em troca de controle de custos e escalabilidade em um ambiente de Descentralização. Mas, no nível da aplicação, ainda está por se observar se essa arquitetura pode sustentar cenários de dados de grande escala e interações de alta frequência. Mais ainda, o RedStuff não quebrou realmente o gargalo de cálculo de codificação que os códigos de correção de erro existem há muito tempo, mas sim evitou os pontos de alta acoplamento da arquitetura tradicional através de estratégias estruturais, sendo sua inovação mais visível na otimização combinatória do lado da engenharia, e não uma ruptura no nível do algoritmo básico.
Assim, o RedStuff parece ser uma "modificação razoável" voltada para o atual ambiente de armazenamento descentralizado. Ele realmente trouxe melhorias nos custos de redundância e na carga de operação, permitindo que dispositivos de borda e nós não de alto desempenho participem das tarefas de armazenamento de dados. No entanto, em cenários de negócios com aplicações em larga escala, adaptação de computação geral e requisitos de consistência mais elevados, seus limites de capacidade ainda são bastante evidentes. Isso faz com que a inovação do Walrus se assemelhe mais a uma adaptação do sistema técnico existente, em vez de ser um avanço decisivo que impulsione a migração do paradigma de armazenamento descentralizado.
Sui e Walrus: uma blockchain pública de alto desempenho pode impulsionar a utilidade de armazenamento
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
14 gostos
Recompensa
14
4
Partilhar
Comentar
0/400
MEVHunterLucky
· 07-07 06:06
Hã, ainda estão especulando sobre o setor de armazenamento?
Ver originalResponder0
OnchainHolmes
· 07-07 06:06
Fil não consegue lidar nem com armazenamento a frio. O novo vai funcionar?
Ver originalResponder0
ProxyCollector
· 07-07 05:52
O campo de armazenamento é apenas isso.
Ver originalResponder0
MondayYoloFridayCry
· 07-07 05:44
Dados frios no mundo crypto são verdadeiros cânceres.
Evolução do armazenamento descentralizado: da Filecoin à Walrus, transformações tecnológicas e perspectivas futuras
De Filecoin, Arweave a Walrus, Shelby: a evolução e as perspectivas futuras do armazenamento descentralizado
O armazenamento foi uma das áreas mais populares da indústria de blockchain. Filecoin, como o projeto líder da última alta do mercado, teve um valor de mercado que ultrapassou os 10 bilhões de dólares. Em comparação, a Arweave, que se destaca pelo armazenamento permanente, atingiu um valor de mercado máximo de 3,5 bilhões de dólares. No entanto, à medida que a disponibilidade de armazenamento de dados frios começou a ser questionada, o futuro do armazenamento descentralizado também ficou em dúvida. Recentemente, o surgimento do Walrus trouxe uma nova atenção para a área de armazenamento que estava adormecida há muito tempo, enquanto o projeto Shelby, lançado em parceria entre a Aptos e a Jump Crypto, tenta alcançar novos avanços no armazenamento de dados quentes. Este artigo analisará o caminho de evolução do armazenamento descentralizado a partir do desenvolvimento desses projetos representativos e discutirá suas perspectivas futuras.
FIL: a essência da moeda minerada sob a pele do armazenamento
FIL é um dos primeiros projetos de blockchain a emergir, com seu desenvolvimento centrado na Descentralização. O FIL tenta transformar o armazenamento centralizado em armazenamento descentralizado, mas as concessões feitas para alcançar a descentralização nesse processo tornaram-se os pontos problemáticos que os projetos subsequentes tentam resolver.
IPFS: arquitetura Descentralização, mas limitada por gargalos de transmissão
IPFS( Sistema de Arquivos Interplanetário) foi lançado em 2015, com o objetivo de revolucionar o protocolo HTTP tradicional através da endereçamento de conteúdo. No entanto, a maior desvantagem do IPFS é a sua velocidade de obtenção extremamente lenta. Em uma era em que os provedores de serviços de dados tradicionais podem alcançar respostas em milissegundos, o IPFS ainda leva dezenas de segundos para obter um arquivo, o que dificulta sua promoção em aplicações práticas.
O IPFS é principalmente adequado para "dados frios", ou seja, conteúdo estático que não muda com frequência. No entanto, ao lidar com dados quentes, como páginas da web dinâmicas, jogos online ou aplicações de IA, o protocolo P2P não apresenta vantagens significativas em relação aos CDN tradicionais.
Apesar de o IPFS não ser uma blockchain em si, o conceito de design de gráfico acíclico direcionado (DAG) que adota está altamente alinhado com muitas blockchains e protocolos Web3, tornando-o adequado como uma estrutura de construção subjacente para blockchain.
Lógica das moedas mineradas sob o manto de armazenamento
No modelo de economia de tokens do Filecoin, existem três papéis principais: os usuários pagam taxas para armazenar dados; os mineradores de armazenamento recebem incentivos em tokens por armazenar os dados dos usuários; os mineradores de recuperação fornecem dados quando os usuários precisam e obtêm incentivos.
Este modelo apresenta um espaço potencial para comportamentos maliciosos. Os mineradores de armazenamento podem, após fornecer espaço de armazenamento, preencher com dados inúteis para obter recompensas. Como esses dados inúteis não serão recuperados, mesmo que sejam perdidos, não ativarão o mecanismo de penalização. Isso permite que os mineradores de armazenamento excluam dados inúteis e repitam esse processo. O consenso de prova de replicação do FIL só pode garantir que os dados do usuário não foram excluídos de forma não autorizada, mas não pode impedir que os mineradores preencham com dados inúteis.
A operação do Filecoin depende em grande parte do investimento contínuo dos mineradores na economia dos tokens, em vez de se basear na demanda real dos usuários finais por armazenamento descentralizado. Embora o projeto ainda esteja em iteração contínua, nesta fase, a construção do ecossistema do Filecoin se alinha mais à definição de um projeto de armazenamento "baseado em mineração" do que "direcionado por aplicações".
Arweave: nasce do longo prazo, perece do longo prazo
Se o objetivo de design do Filecoin é construir uma "nuvem de dados" descentralizada e incentivada, então o Arweave leva o armazenamento em outra direção extrema: fornecendo a capacidade de armazenamento permanente para os dados. O Arweave não tenta construir uma plataforma de computação distribuída; todo o seu sistema gira em torno de uma hipótese central — dados importantes devem ser armazenados uma única vez e permanecer para sempre na rede. Esse extremo longo-prazismo faz com que o Arweave, desde os mecanismos até o modelo de incentivos, passando pelas necessidades de hardware até a narrativa, seja drasticamente diferente do Filecoin.
Arweave utiliza o Bitcoin como objeto de estudo, tentando otimizar continuamente a sua rede de armazenamento permanente ao longo de longos períodos contados em anos. Arweave não se importa com marketing, nem com concorrentes ou as tendências do mercado. Está apenas avançando constantemente na iteração da arquitetura da rede, mesmo que ninguém se importe, porque essa é a essência da equipe de desenvolvimento da Arweave: o longo prazo. Graças ao longo prazo, Arweave foi amplamente popular durante o último mercado em alta; e também por causa do longo prazo, mesmo caindo a níveis baixos, Arweave ainda pode sobreviver a várias oscilações de alta e baixa. Mas será que no futuro o armazenamento descentralizado terá um lugar para a Arweave? O valor da existência do armazenamento permanente só pode ser provado pelo tempo.
A mainnet do Arweave foi de versão 1.5 para a mais recente 2.9, embora tenha perdido o calor das discussões de mercado, tem-se esforçado para permitir que um maior número de mineradores participe da rede com o menor custo possível e incentive os mineradores a armazenar dados ao máximo, melhorando continuamente a robustez de toda a rede. O Arweave, ciente de que não atende às preferências de mercado, adotou uma abordagem conservadora, não abraçando a comunidade de mineradores, com o ecossistema completamente estagnado, atualizando a mainnet com o menor custo possível, enquanto reduz continuamente a barreira de hardware sem comprometer a segurança da rede.
Revisão do caminho de atualização de 1.5-2.9
A versão 1.5 do Arweave expôs uma vulnerabilidade em que os mineradores podiam confiar na empilhagem de GPUs em vez de armazenamento real para otimizar as chances de mineração de blocos. Para conter essa tendência, a versão 1.7 introduziu o algoritmo RandomX, limitando o uso de poder computacional especializado e exigindo que CPUs genéricas participassem da mineração, enfraquecendo assim a centralização do poder computacional.
Na versão 2.0, o Arweave adotou SPoA, transformando a prova de dados em um caminho simplificado de estrutura de árvore de Merkle e introduzindo transações de formato 2 para reduzir a carga de sincronização. Esta arquitetura aliviou a pressão da largura de banda da rede, aumentando significativamente a capacidade de colaboração dos nós. No entanto, alguns mineradores ainda podem evitar a responsabilidade de manter dados reais através de estratégias de pools de armazenamento centralizados de alta velocidade.
Para corrigir essa tendência, a versão 2.4 introduziu o mecanismo SPoRA, que trouxe um índice global e acesso aleatório lento a hashes, fazendo com que os mineradores precisassem realmente possuir blocos de dados para participar da validação de blocos, enfraquecendo assim o efeito de empilhamento de poder computacional. Como resultado, os mineradores começaram a se concentrar na velocidade de acesso ao armazenamento, impulsionando a aplicação de SSDs e dispositivos de leitura e gravação de alta velocidade. A versão 2.6 introduziu o controle do ritmo de validação de blocos por meio de uma cadeia de hashes, equilibrando a eficiência marginal de dispositivos de alto desempenho e proporcionando um espaço de participação justo para mineradores de médio e pequeno porte.
As versões subsequentes reforçam ainda mais a capacidade de colaboração na rede e a diversidade de armazenamento: a 2.7 adiciona mineração colaborativa e mecanismos de pool de mineração, aumentando a competitividade dos pequenos mineradores; a 2.8 lança um mecanismo de empacotamento composto, permitindo que dispositivos de alta capacidade e baixa velocidade participem de forma flexível; a 2.9 introduz um novo processo de empacotamento no formato replica_2_9, melhorando significativamente a eficiência e reduzindo a dependência computacional, completando o ciclo do modelo de mineração orientado a dados.
De uma forma geral, o caminho de atualização do Arweave apresenta claramente sua estratégia de longo prazo orientada para o armazenamento: ao resistir continuamente à tendência de concentração de poder computacional, reduz constantemente as barreiras de entrada, garantindo a viabilidade da operação do protocolo a longo prazo.
Walrus: abraçar dados quentes é uma especulação ou contém um grande segredo?
A filosofia de design do Walrus é completamente diferente da do Filecoin e do Arweave. O ponto de partida do Filecoin é criar um sistema de armazenamento descentralizado e verificável, com o custo de armazenamento de dados frios; o ponto de partida do Arweave é criar uma biblioteca de Alexandria em cadeia que possa armazenar dados permanentemente, com o custo de haver poucos cenários; por outro lado, o ponto de partida do Walrus é otimizar os custos de armazenamento do protocolo de armazenamento de dados quentes.
Modificação mágica do código de correção: inovação de custo ou novo vinho em garrafa velha?
Em termos de design de custos de armazenamento, a Walrus considera que os custos de armazenamento do Filecoin em comparação com o Arweave são irracionais. Ambos utilizam uma arquitetura de replicação completa, cuja principal vantagem é que cada nó possui uma cópia completa, proporcionando uma forte capacidade de tolerância a falhas e independência entre os nós. Esse tipo de arquitetura garante que, mesmo que alguns nós fiquem offline, a rede ainda mantenha a disponibilidade dos dados. No entanto, isso também significa que o sistema precisa de redundância de múltiplas cópias para manter a robustez, o que eleva os custos de armazenamento. Especialmente no design do Arweave, o próprio mecanismo de consenso incentiva o armazenamento redundante dos nós, para aumentar a segurança dos dados. Em contraste, o Filecoin é mais flexível no controle de custos, mas a um custo em que um armazenamento de baixo custo pode apresentar um risco maior de perda de dados. A Walrus tenta encontrar um equilíbrio entre os dois, com seu mecanismo controlando os custos de replicação enquanto aumenta a disponibilidade por meio de redundância estruturada, estabelecendo assim um novo caminho de compromisso entre a disponibilidade dos dados e a eficiência de custos.
A Redstuff, criado pelo Walrus, é uma tecnologia chave para reduzir a redundância de nós, originada da codificação Reed-Solomon(RS). A codificação RS é um algoritmo de código de correção de erros muito tradicional; o código de correção de erros é uma técnica que permite duplicar um conjunto de dados através da adição de fragmentos redundantes(erasure code), podendo ser utilizada para reconstruir os dados originais. Desde CD-ROMs a comunicações por satélite e códigos QR, ela é frequentemente utilizada no dia a dia.
A codificação de correção de erros permite que os usuários obtenham um bloco, por exemplo, de 1MB, e depois o "ampliem" para 2MB, onde 1MB extra é chamado de dados especiais de codificação de correção de erros. Se qualquer byte do bloco se perder, o usuário pode recuperar facilmente esses bytes através do código. Mesmo que até 1MB do bloco se perca, o bloco inteiro pode ser recuperado. A mesma técnica permite que os computadores leiam todos os dados em um CD-ROM, mesmo que este esteja danificado.
Atualmente, o mais comum é a codificação RS. O método de implementação é começar com k blocos de informação, construir um polinómio relacionado e avaliá-lo em diferentes coordenadas x para obter os blocos codificados. Usando códigos de correção de erros RS, a probabilidade de amostrar aleatoriamente grandes blocos de dados perdidos é muito pequena.
Qual é a principal característica do algoritmo de codificação RedStuff? Através da melhoria do algoritmo de codificação de correção de erros, o Walrus consegue codificar rapidamente e de forma robusta blocos de dados não estruturados em fragmentos menores, que são armazenados distribuídos em uma rede de nós de armazenamento. Mesmo que até dois terços dos fragmentos sejam perdidos, é possível reconstruir rapidamente o bloco de dados original usando fragmentos parciais. Isso se torna possível mantendo o fator de replicação em apenas 4 a 5 vezes.
Portanto, é razoável definir o Walrus como um protocolo leve de redundância e recuperação redesenhado em torno de um cenário de Descentralização. Em comparação com códigos de correção de erros tradicionais ( como Reed-Solomon ), o RedStuff não busca mais uma consistência matemática rigorosa, mas faz um compromisso realista em relação à distribuição de dados, verificação de armazenamento e custo computacional. Este modelo abandona o mecanismo de decodificação instantânea necessário para o agendamento centralizado, passando a verificar on-chain se os nós possuem cópias específicas de dados, adaptando-se assim a uma estrutura de rede mais dinâmica e marginalizada.
O núcleo do design do RedStuff é dividir os dados em duas categorias: fatias principais e fatias secundárias. As fatias principais são usadas para recuperar os dados originais; sua geração e distribuição estão sujeitas a restrições rigorosas, com um limite de recuperação de f+1, e requerem 2f+1 assinaturas como endosse de disponibilidade; as fatias secundárias, por sua vez, são geradas por meio de operações simples como combinações XOR, e têm a função de fornecer tolerância a falhas elástica, melhorando a robustez geral do sistema. Essa estrutura, em essência, reduz os requisitos de consistência dos dados - permitindo que diferentes nós armazenem temporariamente diferentes versões dos dados, enfatizando a trajetória prática da "consistência final". Embora semelhante aos requisitos mais flexíveis para blocos retroativos em sistemas como o Arweave, obtenha um certo efeito na redução da carga da rede, mas ao mesmo tempo enfraquece a garantia de disponibilidade imediata e integridade dos dados.
Não se pode ignorar que, embora o RedStuff tenha conseguido um armazenamento eficaz em ambientes de baixa potência de computação e baixa largura de banda, ele ainda é, em essência, uma "variante" de um sistema de códigos de correção de erro. Ele sacrifica uma parte da determinabilidade na leitura de dados em troca de controle de custos e escalabilidade em um ambiente de Descentralização. Mas, no nível da aplicação, ainda está por se observar se essa arquitetura pode sustentar cenários de dados de grande escala e interações de alta frequência. Mais ainda, o RedStuff não quebrou realmente o gargalo de cálculo de codificação que os códigos de correção de erro existem há muito tempo, mas sim evitou os pontos de alta acoplamento da arquitetura tradicional através de estratégias estruturais, sendo sua inovação mais visível na otimização combinatória do lado da engenharia, e não uma ruptura no nível do algoritmo básico.
Assim, o RedStuff parece ser uma "modificação razoável" voltada para o atual ambiente de armazenamento descentralizado. Ele realmente trouxe melhorias nos custos de redundância e na carga de operação, permitindo que dispositivos de borda e nós não de alto desempenho participem das tarefas de armazenamento de dados. No entanto, em cenários de negócios com aplicações em larga escala, adaptação de computação geral e requisitos de consistência mais elevados, seus limites de capacidade ainda são bastante evidentes. Isso faz com que a inovação do Walrus se assemelhe mais a uma adaptação do sistema técnico existente, em vez de ser um avanço decisivo que impulsione a migração do paradigma de armazenamento descentralizado.
Sui e Walrus: uma blockchain pública de alto desempenho pode impulsionar a utilidade de armazenamento