A fusão de IA e Blockchain: um panorama desde a infraestrutura até a aplicação
O rápido desenvolvimento recente da indústria de inteligência artificial tem sido visto por alguns como o início da quarta revolução industrial. O surgimento de grandes modelos de linguagem aumentou significativamente a eficiência em diversos setores; segundo a Boston Consulting Group, o GPT trouxe um aumento de cerca de 20% na eficiência do trabalho nos Estados Unidos. Ao mesmo tempo, a capacidade de generalização dos grandes modelos é vista como um novo paradigma de design de software. O design de software no passado era código preciso, enquanto o design de software atual incorpora mais o framework dos grandes modelos com forte capacidade de generalização, permitindo que o software tenha um desempenho melhor e suporte uma gama mais ampla de entradas e saídas modais. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda também está gradualmente se espalhando para a indústria de criptomoedas.
A evolução da indústria de IA
A indústria de inteligência artificial começou a se desenvolver na década de 1950. Para realizar a visão da inteligência artificial, a academia e a indústria, em diferentes épocas e contextos disciplinares, desenvolveram várias correntes para a realização da inteligência artificial.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizagem de máquinas", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema através de iterações repetidas em tarefas, baseando-se em dados. Os principais passos incluem a entrada de dados nos algoritmos, o treino de modelos com esses dados, a testagem e implementação dos modelos, e por fim, o uso dos modelos para realizar tarefas de previsão automatizada.
Atualmente, existem três principais correntes de aprendizado de máquina: o conexionismo, o simbolismo e o behaviorismo, que imitam, respectivamente, o sistema nervoso humano, o pensamento e o comportamento. Dentre elas, o conexionismo, representado por redes neurais, ocupa atualmente a posição dominante ( e também é conhecido como aprendizado profundo ). Esta arquitetura possui uma camada de entrada, uma camada de saída e várias camadas ocultas. Quando o número de camadas e neurônios ( e a quantidade de parâmetros ) são suficientes, é possível ajustar tarefas complexas de forma geral. Ao inserir continuamente dados e ajustar os parâmetros dos neurônios, após um treinamento com uma grande quantidade de dados, a rede neural pode alcançar um estado ótimo. Esta é também a origem da palavra "profundo" - um número suficiente de camadas e neurônios.
A tecnologia de aprendizado profundo baseada em redes neurais também passou por várias iterações e evoluções tecnológicas, desde as redes neurais mais antigas, até redes neurais de feedforward, RNN, CNN, GAN, e finalmente se desenvolvendo para modelos grandes modernos como o GPT que utilizam a tecnologia Transformer. A tecnologia Transformer é uma direção evolutiva das redes neurais, que adiciona um conversor ( Transformer ), para codificar dados de várias modalidades ( como áudio, vídeo, imagens, etc. ) em representações numéricas correspondentes. Em seguida, esses dados codificados são inseridos na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, alcançando assim a capacidade de processamento multimodal.
O desenvolvimento da IA passou por três ondas tecnológicas. A primeira onda ocorreu na década de 1960, uma década após a proposta da tecnologia de IA. Esta onda foi principalmente causada pelo desenvolvimento da tecnologia do simbolismo, que resolveu problemas gerais de processamento de linguagem natural e diálogo homem-máquina. Nesse mesmo período, os sistemas especialistas nasceram, sendo o sistema especialista DENRAL, concluído com o apoio da NASA pela Universidade de Stanford, que possui um vasto conhecimento em química e pode inferir respostas semelhantes às de um especialista em química através de perguntas.
A segunda onda da tecnologia de IA ocorreu em 1997, quando o "Deep Blue" da IBM venceu o campeão de xadrez Kasparov por 3,5 a 2,5. Esta vitória foi vista como um marco no desenvolvimento da inteligência artificial.
A terceira onda da tecnologia de IA começou em 2006. Os três gigantes do aprendizado profundo, Yann LeCun, Geoffrey Hinton e Yoshua Bengio, apresentaram o conceito de aprendizado profundo, que é um algoritmo baseado em redes neurais artificiais para a aprendizagem de representações de dados. Desde então, os algoritmos de aprendizado profundo evoluíram continuamente, desde RNN, GAN até Transformer e Stable Diffusion, esses algoritmos moldaram conjuntamente a terceira onda tecnológica, também marcando o auge do conexionismo.
Cadeia de Indústria de Aprendizado Profundo
Os modelos de linguagem de grande escala atuais utilizam principalmente métodos de aprendizado profundo baseados em redes neurais. Modelos grandes, representados pelo GPT, desencadearam uma nova onda de entusiasmo pela inteligência artificial, com muitos jogadores entrando nesta corrida. Observamos uma explosão na demanda do mercado por dados e poder computacional, portanto, nesta parte do relatório, exploramos principalmente a cadeia industrial dos algoritmos de aprendizado profundo, analisando como as partes superior e inferior são compostas na indústria de IA dominada por algoritmos de aprendizado profundo, assim como o estado atual, a relação de oferta e demanda e as tendências de desenvolvimento futuro.
O treinamento de grandes modelos de linguagem como GPT baseados na tecnologia Transformer ( LLMs ) é dividido principalmente em três etapas:
Pré-treinamento: Através da fornecimento de grandes quantidades de pares de dados à camada de entrada, procura-se os melhores parâmetros para cada neurônio no modelo. Este processo requer uma quantidade massiva de dados e é a fase que mais consome poder computacional.
Ajuste fino: usar uma quantidade menor, mas de alta qualidade, de dados para treinar, a fim de melhorar a qualidade da saída do modelo.
Aprendizado Reforçado: Estabelecer um "modelo de recompensa" para avaliar a qualidade da saída do grande modelo, e assim iterar para melhorar os parâmetros do grande modelo.
Durante o processo de treino de grandes modelos, quanto maior o número de parâmetros, maior será o limite da sua capacidade de generalização. Assim, os três principais fatores que afetam o desempenho de grandes modelos são: número de parâmetros, quantidade e qualidade de dados, e poder computacional. Estes três elementos determinam conjuntamente a qualidade dos resultados do grande modelo e a sua capacidade de generalização.
Os principais elos da cadeia industrial incluem:
Fornecedores de hardware GPU: Atualmente, a Nvidia ocupa uma posição de liderança absoluta no mercado de chips de IA. O meio acadêmico utiliza principalmente GPUs de consumo ( como a série RTX ), enquanto a indústria utiliza principalmente chips como H100 e A100 para a comercialização de grandes modelos.
Fornecedor de serviços em nuvem: fornece capacidade de computação flexível e soluções de treinamento hospedadas para empresas de IA com orçamento limitado. Principalmente dividido em três categorias: grandes fornecedores de nuvem tradicionais ( como AWS, Google Cloud, Azure ), plataformas profissionais de capacidade de computação em nuvem de nicho ( como CoreWeave, Lambda ), e novos fornecedores de inferência como serviço ( como Together.ai, Fireworks.ai ).
Fornecedores de dados de treino: fornecem uma grande quantidade de dados de alta qualidade ou de áreas específicas para o modelo. Algumas empresas especializam-se na coleta e rotulagem de dados.
Fornecedores de bases de dados: oferecem soluções especializadas de bases de dados vetoriais para armazenamento e processamento de dados de IA. Os principais jogadores incluem Chroma, Zilliz, Pinecone, Weaviate, entre outros.
Dispositivos de borda: incluem sistemas de fornecimento de energia e refrigeração para suportar a operação de grandes clusters de GPU. À medida que a escala dos modelos de IA cresce, a demanda neste campo também está a aumentar rapidamente.
Desenvolvimento de aplicações: desenvolvimento de várias aplicações em áreas verticais com base em grandes modelos, como assistentes inteligentes, ferramentas de geração de conteúdo, etc. Atualmente, o desenvolvimento de aplicações está relativamente atrasado em relação à construção de infraestrutura.
Blockchain e a combinação com IA
A combinação da tecnologia Blockchain e da IA reflete-se principalmente nos seguintes aspectos:
Reestruturação de valor: A economia dos tokens pode redefinir o valor em várias etapas da cadeia de indústria de IA, incentivando mais participantes a aprofundar-se nas vertentes do setor de IA.
Mecanismo de confiança: as características de descentralização e imutabilidade do Blockchain podem fornecer um ambiente de processamento de dados confiável para aplicações de IA, resolvendo problemas de privacidade e segurança de dados.
Compartilhamento de recursos: através da rede Blockchain, é possível realizar o compartilhamento global de poder de computação GPU ocioso, aumentando a eficiência da utilização de recursos.
Mercado de Dados: A blockchain pode construir um mercado de transações justo e transparente para dados de treinamento de IA, incentivando indivíduos e instituições a contribuírem com dados de alta qualidade.
Validação do modelo: usando técnicas criptográficas como provas de conhecimento zero, é possível verificar a precisão dos resultados da inferência de IA enquanto protege a privacidade do modelo.
No ecossistema que combina Crypto e IA, surgiram principalmente as seguintes categorias de projetos:
Rede de poder de computação GPU distribuído: como Render, Akash, entre outros, visa construir um mercado de computação GPU descentralizado.
Fornecedores de dados de IA: como EpiK Protocol, Synesis One, Masa, entre outros, dedicam-se a estabelecer um mercado descentralizado de dados de treino de IA.
ZKML( Aprendizado de Máquina com Zero Conhecimento): Combina a tecnologia de provas de conhecimento zero para realizar treinamento e inferência de IA sob proteção de privacidade.
AI代理(Agent): como Fetch.AI, construir uma rede de agentes de IA capazes de executar tarefas de forma autónoma.
Blockchain de IA: como Tensor, Allora, entre outros, redes de blockchain projetadas especificamente para o desenvolvimento e a implementação de modelos de IA.
Embora a combinação de Crypto e AI ainda esteja em uma fase inicial, enfrentando desafios como desempenho e privacidade, este campo demonstra um enorme potencial de inovação. Com o avanço da tecnologia e a melhoria do ecossistema, temos razões para esperar que a profunda integração da AI com a Blockchain traga transformações revolucionárias para ambos os setores.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
7
Republicar
Partilhar
Comentar
0/400
PrivacyMaximalist
· 4h atrás
A especulação recomeçou.
Ver originalResponder0
GetRichLeek
· 08-10 06:51
comprar na baixa AI moeda em entrada,妥妥的 perda de corte pré-definida...别问我为啥知道!
Ver originalResponder0
SchrodingerPrivateKey
· 08-10 06:51
Eu acordei com o Estado Quântico de Schrödinger
Ver originalResponder0
ShibaOnTheRun
· 08-10 06:50
Já se está a falar deste velho clichê novamente.
Ver originalResponder0
MoonRocketman
· 08-10 06:48
O momentum do RSI já está em posição, a fusão da IA com a Comunidade da cadeia ultrapassou este nível de resistência! Poder de computação é o combustível~
Ver originalResponder0
OldLeekMaster
· 08-10 06:25
Mais uma vez a pintar um quadro, quando é que vamos poder comer?
A fusão da IA com a Blockchain: uma análise panorâmica da infraestrutura às aplicações
A fusão de IA e Blockchain: um panorama desde a infraestrutura até a aplicação
O rápido desenvolvimento recente da indústria de inteligência artificial tem sido visto por alguns como o início da quarta revolução industrial. O surgimento de grandes modelos de linguagem aumentou significativamente a eficiência em diversos setores; segundo a Boston Consulting Group, o GPT trouxe um aumento de cerca de 20% na eficiência do trabalho nos Estados Unidos. Ao mesmo tempo, a capacidade de generalização dos grandes modelos é vista como um novo paradigma de design de software. O design de software no passado era código preciso, enquanto o design de software atual incorpora mais o framework dos grandes modelos com forte capacidade de generalização, permitindo que o software tenha um desempenho melhor e suporte uma gama mais ampla de entradas e saídas modais. A tecnologia de aprendizado profundo realmente trouxe uma nova onda de prosperidade para a indústria de IA, e essa onda também está gradualmente se espalhando para a indústria de criptomoedas.
A evolução da indústria de IA
A indústria de inteligência artificial começou a se desenvolver na década de 1950. Para realizar a visão da inteligência artificial, a academia e a indústria, em diferentes épocas e contextos disciplinares, desenvolveram várias correntes para a realização da inteligência artificial.
A tecnologia moderna de inteligência artificial utiliza principalmente o termo "aprendizagem de máquinas", cuja ideia central é permitir que as máquinas melhorem o desempenho do sistema através de iterações repetidas em tarefas, baseando-se em dados. Os principais passos incluem a entrada de dados nos algoritmos, o treino de modelos com esses dados, a testagem e implementação dos modelos, e por fim, o uso dos modelos para realizar tarefas de previsão automatizada.
Atualmente, existem três principais correntes de aprendizado de máquina: o conexionismo, o simbolismo e o behaviorismo, que imitam, respectivamente, o sistema nervoso humano, o pensamento e o comportamento. Dentre elas, o conexionismo, representado por redes neurais, ocupa atualmente a posição dominante ( e também é conhecido como aprendizado profundo ). Esta arquitetura possui uma camada de entrada, uma camada de saída e várias camadas ocultas. Quando o número de camadas e neurônios ( e a quantidade de parâmetros ) são suficientes, é possível ajustar tarefas complexas de forma geral. Ao inserir continuamente dados e ajustar os parâmetros dos neurônios, após um treinamento com uma grande quantidade de dados, a rede neural pode alcançar um estado ótimo. Esta é também a origem da palavra "profundo" - um número suficiente de camadas e neurônios.
A tecnologia de aprendizado profundo baseada em redes neurais também passou por várias iterações e evoluções tecnológicas, desde as redes neurais mais antigas, até redes neurais de feedforward, RNN, CNN, GAN, e finalmente se desenvolvendo para modelos grandes modernos como o GPT que utilizam a tecnologia Transformer. A tecnologia Transformer é uma direção evolutiva das redes neurais, que adiciona um conversor ( Transformer ), para codificar dados de várias modalidades ( como áudio, vídeo, imagens, etc. ) em representações numéricas correspondentes. Em seguida, esses dados codificados são inseridos na rede neural, permitindo que a rede neural se ajuste a qualquer tipo de dado, alcançando assim a capacidade de processamento multimodal.
O desenvolvimento da IA passou por três ondas tecnológicas. A primeira onda ocorreu na década de 1960, uma década após a proposta da tecnologia de IA. Esta onda foi principalmente causada pelo desenvolvimento da tecnologia do simbolismo, que resolveu problemas gerais de processamento de linguagem natural e diálogo homem-máquina. Nesse mesmo período, os sistemas especialistas nasceram, sendo o sistema especialista DENRAL, concluído com o apoio da NASA pela Universidade de Stanford, que possui um vasto conhecimento em química e pode inferir respostas semelhantes às de um especialista em química através de perguntas.
A segunda onda da tecnologia de IA ocorreu em 1997, quando o "Deep Blue" da IBM venceu o campeão de xadrez Kasparov por 3,5 a 2,5. Esta vitória foi vista como um marco no desenvolvimento da inteligência artificial.
A terceira onda da tecnologia de IA começou em 2006. Os três gigantes do aprendizado profundo, Yann LeCun, Geoffrey Hinton e Yoshua Bengio, apresentaram o conceito de aprendizado profundo, que é um algoritmo baseado em redes neurais artificiais para a aprendizagem de representações de dados. Desde então, os algoritmos de aprendizado profundo evoluíram continuamente, desde RNN, GAN até Transformer e Stable Diffusion, esses algoritmos moldaram conjuntamente a terceira onda tecnológica, também marcando o auge do conexionismo.
Cadeia de Indústria de Aprendizado Profundo
Os modelos de linguagem de grande escala atuais utilizam principalmente métodos de aprendizado profundo baseados em redes neurais. Modelos grandes, representados pelo GPT, desencadearam uma nova onda de entusiasmo pela inteligência artificial, com muitos jogadores entrando nesta corrida. Observamos uma explosão na demanda do mercado por dados e poder computacional, portanto, nesta parte do relatório, exploramos principalmente a cadeia industrial dos algoritmos de aprendizado profundo, analisando como as partes superior e inferior são compostas na indústria de IA dominada por algoritmos de aprendizado profundo, assim como o estado atual, a relação de oferta e demanda e as tendências de desenvolvimento futuro.
O treinamento de grandes modelos de linguagem como GPT baseados na tecnologia Transformer ( LLMs ) é dividido principalmente em três etapas:
Pré-treinamento: Através da fornecimento de grandes quantidades de pares de dados à camada de entrada, procura-se os melhores parâmetros para cada neurônio no modelo. Este processo requer uma quantidade massiva de dados e é a fase que mais consome poder computacional.
Ajuste fino: usar uma quantidade menor, mas de alta qualidade, de dados para treinar, a fim de melhorar a qualidade da saída do modelo.
Aprendizado Reforçado: Estabelecer um "modelo de recompensa" para avaliar a qualidade da saída do grande modelo, e assim iterar para melhorar os parâmetros do grande modelo.
Durante o processo de treino de grandes modelos, quanto maior o número de parâmetros, maior será o limite da sua capacidade de generalização. Assim, os três principais fatores que afetam o desempenho de grandes modelos são: número de parâmetros, quantidade e qualidade de dados, e poder computacional. Estes três elementos determinam conjuntamente a qualidade dos resultados do grande modelo e a sua capacidade de generalização.
Os principais elos da cadeia industrial incluem:
Fornecedores de hardware GPU: Atualmente, a Nvidia ocupa uma posição de liderança absoluta no mercado de chips de IA. O meio acadêmico utiliza principalmente GPUs de consumo ( como a série RTX ), enquanto a indústria utiliza principalmente chips como H100 e A100 para a comercialização de grandes modelos.
Fornecedor de serviços em nuvem: fornece capacidade de computação flexível e soluções de treinamento hospedadas para empresas de IA com orçamento limitado. Principalmente dividido em três categorias: grandes fornecedores de nuvem tradicionais ( como AWS, Google Cloud, Azure ), plataformas profissionais de capacidade de computação em nuvem de nicho ( como CoreWeave, Lambda ), e novos fornecedores de inferência como serviço ( como Together.ai, Fireworks.ai ).
Fornecedores de dados de treino: fornecem uma grande quantidade de dados de alta qualidade ou de áreas específicas para o modelo. Algumas empresas especializam-se na coleta e rotulagem de dados.
Fornecedores de bases de dados: oferecem soluções especializadas de bases de dados vetoriais para armazenamento e processamento de dados de IA. Os principais jogadores incluem Chroma, Zilliz, Pinecone, Weaviate, entre outros.
Dispositivos de borda: incluem sistemas de fornecimento de energia e refrigeração para suportar a operação de grandes clusters de GPU. À medida que a escala dos modelos de IA cresce, a demanda neste campo também está a aumentar rapidamente.
Desenvolvimento de aplicações: desenvolvimento de várias aplicações em áreas verticais com base em grandes modelos, como assistentes inteligentes, ferramentas de geração de conteúdo, etc. Atualmente, o desenvolvimento de aplicações está relativamente atrasado em relação à construção de infraestrutura.
Blockchain e a combinação com IA
A combinação da tecnologia Blockchain e da IA reflete-se principalmente nos seguintes aspectos:
Reestruturação de valor: A economia dos tokens pode redefinir o valor em várias etapas da cadeia de indústria de IA, incentivando mais participantes a aprofundar-se nas vertentes do setor de IA.
Mecanismo de confiança: as características de descentralização e imutabilidade do Blockchain podem fornecer um ambiente de processamento de dados confiável para aplicações de IA, resolvendo problemas de privacidade e segurança de dados.
Compartilhamento de recursos: através da rede Blockchain, é possível realizar o compartilhamento global de poder de computação GPU ocioso, aumentando a eficiência da utilização de recursos.
Mercado de Dados: A blockchain pode construir um mercado de transações justo e transparente para dados de treinamento de IA, incentivando indivíduos e instituições a contribuírem com dados de alta qualidade.
Validação do modelo: usando técnicas criptográficas como provas de conhecimento zero, é possível verificar a precisão dos resultados da inferência de IA enquanto protege a privacidade do modelo.
No ecossistema que combina Crypto e IA, surgiram principalmente as seguintes categorias de projetos:
Rede de poder de computação GPU distribuído: como Render, Akash, entre outros, visa construir um mercado de computação GPU descentralizado.
Fornecedores de dados de IA: como EpiK Protocol, Synesis One, Masa, entre outros, dedicam-se a estabelecer um mercado descentralizado de dados de treino de IA.
ZKML( Aprendizado de Máquina com Zero Conhecimento): Combina a tecnologia de provas de conhecimento zero para realizar treinamento e inferência de IA sob proteção de privacidade.
AI代理(Agent): como Fetch.AI, construir uma rede de agentes de IA capazes de executar tarefas de forma autónoma.
Blockchain de IA: como Tensor, Allora, entre outros, redes de blockchain projetadas especificamente para o desenvolvimento e a implementação de modelos de IA.
Embora a combinação de Crypto e AI ainda esteja em uma fase inicial, enfrentando desafios como desempenho e privacidade, este campo demonstra um enorme potencial de inovação. Com o avanço da tecnologia e a melhoria do ecossistema, temos razões para esperar que a profunda integração da AI com a Blockchain traga transformações revolucionárias para ambos os setores.