A indústria de inteligência artificial tem se desenvolvido rapidamente recentemente, sendo vista como a quarta revolução industrial. O surgimento de grandes modelos de linguagem aumentou significativamente a eficiência em vários setores, estimando-se que tenha melhorado a eficiência do trabalho nos EUA em cerca de 20%. A capacidade de generalização dos grandes modelos é considerada um novo paradigma de design de software, permitindo que o software tenha um desempenho melhor e suporte uma gama mais ampla de entradas e saídas. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda também afetou a indústria de criptomoedas.
Este relatório irá explorar detalhadamente a história do desenvolvimento da indústria de IA, as classificações tecnológicas e o impacto da tecnologia de aprendizado profundo na indústria. Analisaremos em profundidade a situação atual e as tendências do desenvolvimento da cadeia industrial, incluindo GPU, computação em nuvem, fontes de dados e dispositivos de borda. Exploraremos essencialmente a relação entre criptomoedas e a indústria de IA, mapeando a estrutura da cadeia industrial de IA relacionada a criptomoedas.
História do desenvolvimento da indústria de IA
A indústria de IA começou na década de 1950, e a academia e a indústria desenvolveram várias correntes de implementação da inteligência artificial em diferentes épocas e com diferentes contextos disciplinares.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizado de máquina", cuja ideia é fazer com que as máquinas dependam de dados para iterar repetidamente em tarefas, a fim de melhorar o desempenho do sistema. Os principais passos são enviar dados para o algoritmo, usar esses dados para treinar o modelo, testar e implantar o modelo, utilizando-o para completar tarefas de previsão automatizada.
Atualmente, a aprendizagem de máquina tem três principais correntes, que são o conexionismo, o simbolismo e o behaviorismo, que imitam, respetivamente, o sistema nervoso humano, o pensamento e o comportamento.
Atualmente, o conexionismo, representado por redes neurais, está em vantagem ( também conhecido como aprendizado profundo ), a principal razão é que essa arquitetura tem uma camada de entrada, uma camada de saída, mas várias camadas ocultas. Uma vez que o número de camadas e neurônios ( parâmetros ) seja suficientemente grande, há oportunidades suficientes para ajustar tarefas gerais complexas. Através da entrada de dados, é possível ajustar continuamente os parâmetros dos neurônios, e após múltiplos processamentos de dados, esse neurônio alcançará um estado ótimo ( parâmetros ), que é a origem do "profundo" — um número suficiente de camadas e neurônios.
A tecnologia de aprendizado profundo baseada em redes neurais também passou por várias iterações e evoluções, desde as redes neurais mais antigas, até redes neurais feedforward, RNN, CNN, GAN, e finalmente evoluindo para modelos grandes modernos como o GPT, que utilizam a tecnologia Transformer. A tecnologia Transformer é apenas uma direção de evolução das redes neurais, que adiciona um conversor para codificar todos os modos (, como áudio, vídeo, imagens, etc., ) em representações numéricas correspondentes. Esses dados são então inseridos na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, realizando multimodalidade.
O desenvolvimento da IA passou por três ondas tecnológicas. A primeira ocorreu na década de 60 do século XX, e essa onda foi desencadeada pelo desenvolvimento de tecnologias simbolistas, resolvendo problemas de processamento de linguagem natural e de diálogo homem-máquina. A segunda foi em 1997, quando o Deep Blue da IBM derrotou o campeão de xadrez, sendo considerado um marco na inteligência artificial. A terceira ocorreu em 2006, com a proposta do conceito de aprendizagem profunda, que foi o auge do conexionismo.
Cadeia de Indústria de Aprendizagem Profunda
Os grandes modelos de linguagem atuais utilizam métodos de aprendizado profundo baseados em redes neurais. Com o GPT à frente, esses grandes modelos geraram uma onda de entusiasmo pela inteligência artificial, com um grande número de participantes a entrar neste setor, levando a uma explosão na demanda do mercado por dados e capacidade computacional. Vamos explorar a cadeia de valor dos algoritmos de aprendizado profundo, analisando a composição, o estado e a relação de oferta e demanda das partes envolvidas, bem como o desenvolvimento futuro.
O GPT, baseado na tecnologia Transformer, é um modelo LLM( e o treinamento do modelo) é principalmente dividido em três etapas:
Pré-treinamento: Através de uma grande quantidade de dados para encontrar os melhores parâmetros dos neurônios do modelo, este processo consome mais poder computacional.
Ajuste fino: treinar com uma pequena quantidade de dados de alta qualidade para melhorar a qualidade da saída do modelo.
Aprendizagem reforçada: estabelecer um modelo de recompensas para classificar os resultados de saída, iterando automaticamente os parâmetros do grande modelo.
O desempenho de grandes modelos é principalmente determinado por três aspectos: o número de parâmetros, a quantidade e qualidade dos dados e a capacidade computacional. Supondo que o número de parâmetros seja p, a quantidade de dados seja n( calculada pelo número de tokens), pode-se calcular a quantidade de computação necessária através de uma regra empírica, estimando a capacidade computacional que precisa ser adquirida e o tempo de treinamento.
A capacidade computacional é geralmente medida em Flops, que representa uma operação de ponto flutuante. De acordo com a experiência prática, o pré-treinamento de um grande modelo requer aproximadamente 6np Flops. A inferência de ( com dados de entrada aguardando a saída do grande modelo ) leva cerca de 2np Flops.
O suporte ao poder de computação foi inicialmente fornecido por chips de CPU, sendo posteriormente gradualmente substituído por GPUs, como os chips A100 e H100 da Nvidia. As GPUs executam operações de ponto flutuante através do módulo Tensor Core, que é um dos principais indicadores de desempenho dos chips.
A cadeia industrial de aprendizado profundo inclui principalmente:
Fornecedores de hardware GPU
Provedor de serviços em nuvem
Fornecedores de dados de treinamento
Fornecedor de base de dados
Dispositivos de borda
Aplicação
A relação entre Crypto e AI
A tecnologia blockchain combinada com o desenvolvimento de ZK torna-se uma ideia de descentralização + desconfiança. Essencialmente, toda a rede blockchain é uma rede de valor, e cada transação é uma conversão de valor baseada em tokens subjacentes. A economia dos tokens prevê o valor relativo dos tokens nativos da rede, embora não seja possível precificar cada dimensão, o preço do token reflete um valor multidimensional.
A economia de tokens pode atribuir valor a redes, funções e ideias, tornando tudo no mundo valorizado. Esse meio de redefinição e descoberta de valor é também crucial para a indústria de IA. A emissão de tokens na cadeia industrial de IA pode permitir a reestruturação de valor em vários aspectos, incentivando mais pessoas a se aprofundarem em diferentes setores da IA. Ao mesmo tempo, todos os projetos obterão ganhos de valorização de capital, e os tokens também podem retribuir ao ecossistema, promovendo o surgimento de certas filosofias.
As características de imutabilidade e confiança zero da tecnologia blockchain têm um significado prático na indústria de IA, permitindo a implementação de algumas aplicações que requerem confiança. Quando há escassez de GPUs, é possível distribuir através da rede blockchain, permitindo que GPUs ociosas contribuam com poder de computação para a rede e recuperem seu valor.
Em suma, a economia dos tokens pode promover a reestruturação e a descoberta de valor, o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor flua novamente em todo o mundo.
Visão geral dos projetos relacionados à IA no setor de criptomoedas
Lado da oferta de GPU:
Os principais projetos incluem o Render, entre outros. O Render foi lançado em 2020 e é principalmente utilizado para tarefas de renderização de vídeo que não envolvem grandes modelos. Como um projeto DePIN tradicional com volume de negócios real, o Render realmente aproveitou o impulso da IA/DePIN com sucesso, mas, estritamente falando, não pode ser considerado parte do setor de IA.
Largura de banda de hardware:
Os principais projetos incluem a Meson Network, entre outros. No entanto, o compartilhamento de largura de banda pode ser um conceito falso, pois o armazenamento de dados à distância pode causar latência, sendo inferior ao armazenamento local.
Dados:
Inclui EpiK Protocol, Synesis One, Masa, entre outros. A vantagem dos provedores de dados Web3 está no lado da coleta de dados, onde indivíduos podem contribuir com dados e receber uma remuneração. Provedores de dados na direção de ZK, como a Masa, podem ter boas perspectivas de desenvolvimento.
ZKML:
Usando tecnologia de criptografia homomórfica, realizar a inferência de dados fora da cadeia e depois fazer o upload dos resultados juntamente com a prova ZK, garantindo a privacidade dos dados e a eficiência da inferência. Os principais projetos incluem Axiom, Risc Zero, Ritual, entre outros.
Aplicações de IA:
Atualmente, o desenvolvimento é relativamente fraco. Principalmente aplicações tradicionais de blockchain + capacidade de automação e generalização. O AI Agent, como o Fetch.AI, é um exemplo típico, podendo ajudar os usuários a tomar decisões complexas na cadeia.
Cadeia Pública de IA:
Redes adaptativas construídas especificamente para modelos ou agentes de IA, como Tensor, Allora, Hypertensor, AgentLayer, etc.
Resumo
O desenvolvimento atual da IA amplamente conhecido baseia-se principalmente na tecnologia de aprendizado profundo, mas isso não significa que todas as direções de desenvolvimento da IA sejam assim. Embora o aprendizado profundo possa não ser capaz de alcançar a inteligência artificial geral, já existem cenários de aplicação prática que valem a pena explorar de forma racional.
A blockchain e a economia de tokens têm um impacto positivo na indústria de IA, podendo remodelar o valor da cadeia de produção e incentivar mais participação. A tecnologia blockchain também pode realizar algumas aplicações de IA que requerem confiança.
As desvantagens das redes de computação GPU estão relacionadas com o problema de largura de banda, a velocidade de treino é relativamente lenta, sendo atualmente mais adequadas para modelos pequenos que não são urgentes. Empresas de médio e grande porte ainda tendem a preferir plataformas de nuvem tradicionais.
Em geral, a combinação de IA com criptomoedas tem utilidade prática, a tokenomics pode remodelar e descobrir um valor mais amplo, o livro-razão descentralizado pode resolver problemas de confiança, movimentar valor e descobrir valor residual.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
16 Curtidas
Recompensa
16
4
Compartilhar
Comentário
0/400
MetaMaximalist
· 20h atrás
outro ciclo de hype... smh mas desta vez os efeitos de rede são realmente reais ngl
Ver originalResponder0
MEVSandwichVictim
· 21h atrás
Realmente consegue enrolar, já está a fazer promessas e a entrar em campo.
Ver originalResponder0
NeverVoteOnDAO
· 21h atrás
Hum, todos estão especulando sobre a IA, no final das contas, ainda estão apenas ganhando o dinheiro dos idiotas.
Ver originalResponder0
AirdropHuntress
· 21h atrás
Mais uma pilha de palavras vazias, nem sequer mencionaram os cenários de implementação da indústria, que truques será que o capital está a tentar jogar por trás...
IA e a profundidade da encriptação: remodelando o valor da cadeia de indústrias e as tendências futuras
AI x Crypto: do zero ao topo
Introdução
A indústria de inteligência artificial tem se desenvolvido rapidamente recentemente, sendo vista como a quarta revolução industrial. O surgimento de grandes modelos de linguagem aumentou significativamente a eficiência em vários setores, estimando-se que tenha melhorado a eficiência do trabalho nos EUA em cerca de 20%. A capacidade de generalização dos grandes modelos é considerada um novo paradigma de design de software, permitindo que o software tenha um desempenho melhor e suporte uma gama mais ampla de entradas e saídas. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda também afetou a indústria de criptomoedas.
Este relatório irá explorar detalhadamente a história do desenvolvimento da indústria de IA, as classificações tecnológicas e o impacto da tecnologia de aprendizado profundo na indústria. Analisaremos em profundidade a situação atual e as tendências do desenvolvimento da cadeia industrial, incluindo GPU, computação em nuvem, fontes de dados e dispositivos de borda. Exploraremos essencialmente a relação entre criptomoedas e a indústria de IA, mapeando a estrutura da cadeia industrial de IA relacionada a criptomoedas.
História do desenvolvimento da indústria de IA
A indústria de IA começou na década de 1950, e a academia e a indústria desenvolveram várias correntes de implementação da inteligência artificial em diferentes épocas e com diferentes contextos disciplinares.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizado de máquina", cuja ideia é fazer com que as máquinas dependam de dados para iterar repetidamente em tarefas, a fim de melhorar o desempenho do sistema. Os principais passos são enviar dados para o algoritmo, usar esses dados para treinar o modelo, testar e implantar o modelo, utilizando-o para completar tarefas de previsão automatizada.
Atualmente, a aprendizagem de máquina tem três principais correntes, que são o conexionismo, o simbolismo e o behaviorismo, que imitam, respetivamente, o sistema nervoso humano, o pensamento e o comportamento.
Atualmente, o conexionismo, representado por redes neurais, está em vantagem ( também conhecido como aprendizado profundo ), a principal razão é que essa arquitetura tem uma camada de entrada, uma camada de saída, mas várias camadas ocultas. Uma vez que o número de camadas e neurônios ( parâmetros ) seja suficientemente grande, há oportunidades suficientes para ajustar tarefas gerais complexas. Através da entrada de dados, é possível ajustar continuamente os parâmetros dos neurônios, e após múltiplos processamentos de dados, esse neurônio alcançará um estado ótimo ( parâmetros ), que é a origem do "profundo" — um número suficiente de camadas e neurônios.
A tecnologia de aprendizado profundo baseada em redes neurais também passou por várias iterações e evoluções, desde as redes neurais mais antigas, até redes neurais feedforward, RNN, CNN, GAN, e finalmente evoluindo para modelos grandes modernos como o GPT, que utilizam a tecnologia Transformer. A tecnologia Transformer é apenas uma direção de evolução das redes neurais, que adiciona um conversor para codificar todos os modos (, como áudio, vídeo, imagens, etc., ) em representações numéricas correspondentes. Esses dados são então inseridos na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, realizando multimodalidade.
O desenvolvimento da IA passou por três ondas tecnológicas. A primeira ocorreu na década de 60 do século XX, e essa onda foi desencadeada pelo desenvolvimento de tecnologias simbolistas, resolvendo problemas de processamento de linguagem natural e de diálogo homem-máquina. A segunda foi em 1997, quando o Deep Blue da IBM derrotou o campeão de xadrez, sendo considerado um marco na inteligência artificial. A terceira ocorreu em 2006, com a proposta do conceito de aprendizagem profunda, que foi o auge do conexionismo.
Cadeia de Indústria de Aprendizagem Profunda
Os grandes modelos de linguagem atuais utilizam métodos de aprendizado profundo baseados em redes neurais. Com o GPT à frente, esses grandes modelos geraram uma onda de entusiasmo pela inteligência artificial, com um grande número de participantes a entrar neste setor, levando a uma explosão na demanda do mercado por dados e capacidade computacional. Vamos explorar a cadeia de valor dos algoritmos de aprendizado profundo, analisando a composição, o estado e a relação de oferta e demanda das partes envolvidas, bem como o desenvolvimento futuro.
O GPT, baseado na tecnologia Transformer, é um modelo LLM( e o treinamento do modelo) é principalmente dividido em três etapas:
Pré-treinamento: Através de uma grande quantidade de dados para encontrar os melhores parâmetros dos neurônios do modelo, este processo consome mais poder computacional.
Ajuste fino: treinar com uma pequena quantidade de dados de alta qualidade para melhorar a qualidade da saída do modelo.
Aprendizagem reforçada: estabelecer um modelo de recompensas para classificar os resultados de saída, iterando automaticamente os parâmetros do grande modelo.
O desempenho de grandes modelos é principalmente determinado por três aspectos: o número de parâmetros, a quantidade e qualidade dos dados e a capacidade computacional. Supondo que o número de parâmetros seja p, a quantidade de dados seja n( calculada pelo número de tokens), pode-se calcular a quantidade de computação necessária através de uma regra empírica, estimando a capacidade computacional que precisa ser adquirida e o tempo de treinamento.
A capacidade computacional é geralmente medida em Flops, que representa uma operação de ponto flutuante. De acordo com a experiência prática, o pré-treinamento de um grande modelo requer aproximadamente 6np Flops. A inferência de ( com dados de entrada aguardando a saída do grande modelo ) leva cerca de 2np Flops.
O suporte ao poder de computação foi inicialmente fornecido por chips de CPU, sendo posteriormente gradualmente substituído por GPUs, como os chips A100 e H100 da Nvidia. As GPUs executam operações de ponto flutuante através do módulo Tensor Core, que é um dos principais indicadores de desempenho dos chips.
A cadeia industrial de aprendizado profundo inclui principalmente:
A relação entre Crypto e AI
A tecnologia blockchain combinada com o desenvolvimento de ZK torna-se uma ideia de descentralização + desconfiança. Essencialmente, toda a rede blockchain é uma rede de valor, e cada transação é uma conversão de valor baseada em tokens subjacentes. A economia dos tokens prevê o valor relativo dos tokens nativos da rede, embora não seja possível precificar cada dimensão, o preço do token reflete um valor multidimensional.
A economia de tokens pode atribuir valor a redes, funções e ideias, tornando tudo no mundo valorizado. Esse meio de redefinição e descoberta de valor é também crucial para a indústria de IA. A emissão de tokens na cadeia industrial de IA pode permitir a reestruturação de valor em vários aspectos, incentivando mais pessoas a se aprofundarem em diferentes setores da IA. Ao mesmo tempo, todos os projetos obterão ganhos de valorização de capital, e os tokens também podem retribuir ao ecossistema, promovendo o surgimento de certas filosofias.
As características de imutabilidade e confiança zero da tecnologia blockchain têm um significado prático na indústria de IA, permitindo a implementação de algumas aplicações que requerem confiança. Quando há escassez de GPUs, é possível distribuir através da rede blockchain, permitindo que GPUs ociosas contribuam com poder de computação para a rede e recuperem seu valor.
Em suma, a economia dos tokens pode promover a reestruturação e a descoberta de valor, o livro-razão descentralizado pode resolver problemas de confiança, permitindo que o valor flua novamente em todo o mundo.
Visão geral dos projetos relacionados à IA no setor de criptomoedas
Os principais projetos incluem o Render, entre outros. O Render foi lançado em 2020 e é principalmente utilizado para tarefas de renderização de vídeo que não envolvem grandes modelos. Como um projeto DePIN tradicional com volume de negócios real, o Render realmente aproveitou o impulso da IA/DePIN com sucesso, mas, estritamente falando, não pode ser considerado parte do setor de IA.
Os principais projetos incluem a Meson Network, entre outros. No entanto, o compartilhamento de largura de banda pode ser um conceito falso, pois o armazenamento de dados à distância pode causar latência, sendo inferior ao armazenamento local.
Inclui EpiK Protocol, Synesis One, Masa, entre outros. A vantagem dos provedores de dados Web3 está no lado da coleta de dados, onde indivíduos podem contribuir com dados e receber uma remuneração. Provedores de dados na direção de ZK, como a Masa, podem ter boas perspectivas de desenvolvimento.
Usando tecnologia de criptografia homomórfica, realizar a inferência de dados fora da cadeia e depois fazer o upload dos resultados juntamente com a prova ZK, garantindo a privacidade dos dados e a eficiência da inferência. Os principais projetos incluem Axiom, Risc Zero, Ritual, entre outros.
Atualmente, o desenvolvimento é relativamente fraco. Principalmente aplicações tradicionais de blockchain + capacidade de automação e generalização. O AI Agent, como o Fetch.AI, é um exemplo típico, podendo ajudar os usuários a tomar decisões complexas na cadeia.
Redes adaptativas construídas especificamente para modelos ou agentes de IA, como Tensor, Allora, Hypertensor, AgentLayer, etc.
Resumo
O desenvolvimento atual da IA amplamente conhecido baseia-se principalmente na tecnologia de aprendizado profundo, mas isso não significa que todas as direções de desenvolvimento da IA sejam assim. Embora o aprendizado profundo possa não ser capaz de alcançar a inteligência artificial geral, já existem cenários de aplicação prática que valem a pena explorar de forma racional.
A blockchain e a economia de tokens têm um impacto positivo na indústria de IA, podendo remodelar o valor da cadeia de produção e incentivar mais participação. A tecnologia blockchain também pode realizar algumas aplicações de IA que requerem confiança.
As desvantagens das redes de computação GPU estão relacionadas com o problema de largura de banda, a velocidade de treino é relativamente lenta, sendo atualmente mais adequadas para modelos pequenos que não são urgentes. Empresas de médio e grande porte ainda tendem a preferir plataformas de nuvem tradicionais.
Em geral, a combinação de IA com criptomoedas tem utilidade prática, a tokenomics pode remodelar e descobrir um valor mais amplo, o livro-razão descentralizado pode resolver problemas de confiança, movimentar valor e descobrir valor residual.