Participe de nossos boletins diários e semanais para obter as atualizações mais recentes e conteúdo exclusivo na cobertura da IA da frente industrial. Saber mais
A IA se desenvolveu a uma velocidade incrível. Parecia ficção científica há alguns anos. Em 2017, minha empresa apresentou o melhor centro do centro de IA. A IA certamente se destacou em análise prognóstica e muitos métodos de aprendizado mecânico (ML) são usados para reconhecimento de voz, detecção de spam, teste de feitiços (e outras aplicações) – mas foi cedo. Esperávamos que éramos o único nas primeiras entradas do jogo da IA.
A chegada do GPT-3 e, especialmente, GPT 3.5, que foi projetada para o uso da conversa, foi a base para o primeiro chatgift em novembro de 2022-esse é um ponto de virada dramático, e agora se lembra que o “momento chadjt” é agora.
Desde então, houve um surto de capacidades de IA de centenas de empresas. Em março de 2023, a Opanyai lançou o GPT -4, que prometeu “Sparks de Agi”(Inteligência Geral Artificial). Na época, ficou claro que estávamos além do primeiro turno. Agora, sentimos que estamos no comprimento final de um jogo completamente diferente.
Chama de Agi
Por dois anos, a chama AGI começa a aparecer.
No último capítulo do Coração Fork BodcastDario Amodi – AI na indústria da IA por uma década, anteriormente vice -presidente e agora um diretor executivo antropológico – 70 a 80% de chance “, temos o maior número de sistemas de IA” melhor que os seres humanos em quase tudo até o final da década e disse: “Temos 2026 ou 2027”.
A evidência dessa previsão é clara. No final do verão, Opanai introduziu o O1 – o primeiro “modelo racional”. Desde então, eles lançaram o O3 e outras empresas criaram seus próprios modelos racionais, incluindo Google e popularmente, Deepseek. Os racionalistas usam o chin-chin (COD), assim como um homem se aproxima de uma tarefa complexa e quebra as tarefas complexas no momento de muitas etapas lógicas. Os agentes sofisticados de IA, incluindo a profunda pesquisa do Opanai e o co-cientista da IA do Google, apareceram recentemente, fazendo grandes mudanças na maneira como a pesquisa será feita.
Diferentemente dos grandes modelos de idiomas anteriores (LLM) que correspondem principalmente aos dados de treinamento, os modelos racionais indicam uma mudança fundamental das previsões estatísticas para resolver o problema. Isso permite que a IA lide com novos problemas além do treinamento, o que permite a racionalidade real do que o reconhecimento do método avançado.
Recentemente, usei uma pesquisa profunda para um projeto, Arthur C. Lembrei a citação de Clarke: “A tecnologia adequada é indiferente da magia”. Em cinco minutos, essa IA teria me levado de 3 a 4 dias. Está certo? Não. Sim, muito. Esses agentes estão rapidamente se tornando mágicos e transformadores, e são os primeiros de muitos agentes poderosos semelhantes, e em breve chegarão ao mercado.
A definição mais comum de AGI é uma organização que pode executar qualquer tarefa cognitiva que um homem possa fazer. Esses agentes iniciais da mudança, os ambiciosos e os outros que acreditam que estamos próximos da técnica de IA desse nível podem estar corretos e que a AGI estará aqui em breve. Esse fato pode levar a uma grande mudança, e as pessoas e processos precisam ser alterados em uma breve ordem.
Mas é realmente AGI?
Existem várias cenas que podem sair da chegada da AI poderosa. É desafiador e intimidador que não sabemos como isso vai. New York Times O colunista Ezra Klein abordou isso em um Último potcast: “Estamos correndo para a AGI sem realmente entender o que isso significa ou o que significa”. Por exemplo, ele diz que há pensamento crítico ou coincidência em torno das implicações e, por exemplo, o que realmente significa para o emprego.
Obviamente, há outra perspectiva sobre esse futuro da incerteza e a falta de planejamento, e Carrie é exemplificada por Marcus, geralmente acreditando que o aprendizado profundo (e particularmente os LLMs) não leva ao AG. Marcus Entregue Citando deficiências significativas na tecnologia atual da IA, qual é o tamanho da posição do Glein, e provavelmente estamos a uma longa distância da AGI.
Marcus pode estar correto, mas isso pode ser uma disputa educacional sobre a semântica. Como substituto para o período AGI, Theramodi simplesmente se refere à “AI poderosa” nas máquinas de sua graça amorosa BlogExpressa uma idéia semelhante sem a definição de imprecisa “bagagem de ficção científica e hype”. Chame o que você fará, mas a IA vai crescer apenas tão poderosa.
Brincando com fogo: potencial ai futuro
UM 60 minutos EntrevistaO CEO da Alphabet, Sundar Pichai, pensou em AI: “A humanidade é uma tecnologia muito profunda. O fogo que fizemos no passado é mais profundo que a eletricidade ou qualquer coisa. “Isso certamente se encaixa na crescente intensidade das discussões da IA. Como a IA, o fogo é a invenção de transformar o mundo, que provocou progresso, mas exigiu controle para impedir o desastre. O mesmo equilíbrio sutil se aplica à IA hoje.
A invenção do enorme poder mudou a civilização de bombeiros por calor, culinária, metal e indústria. Mas quando não foi controlado, trouxe destruição. AI depende de quão bem gerenciamos suas chamas para nossos defeitos e defeitos. Para aceitar ainda mais essa metáfora, existem várias visões que em breve podem sair de uma IA mais poderosa:
- Chama controlada (utophia): Nesta situação, a IA é usada como uma força para a prosperidade humana. Skyrockets de produtividade, novos produtos são encontrados, a medicina personalizada está disponível para todos, produtos e serviços se tornarão abundantes e mais baratos e os indivíduos estão livres de decepção para buscar trabalho e funções muito significativos. Esta é a cena que venceu por muitos especialistas em aceleração, nos quais a IA traz progresso sem nos afogar em muita confusão.
- Fogo sustentável (desafio): Aqui, a IA traz benefícios incomuns-revolucionários, automação, novas habilidades, produtos e problemas. No entanto, essas vantagens são distribuídas uniformemente – enquanto alguma prosperidade, outros enfrentam deslocamento, expandem a fenda econômica e enfatizam as organizações sociais. Os spreads de informações incorretos e os riscos de carga são carregados. Nesta situação, a sociedade está lutando para equilibrar a promessa e o perigo. Pode -se argumentar que essa explicação está próxima da realidade de hoje.
- Wildfire (distopia): O terceiro caminho é um dos desastres, que é chamado de probabilidade de “tumores” e valores “doom” e é muito forte. Efeitos não intencionais, sequências imprudentes ou sistemas de IA além do controle humano, as atividades de IA não são verificadas e os acidentes ocorrem. Confiando na verdade. Na pior situação, a IA ameaçará a vida, as empresas e as empresas inteiras.
Embora cada uma dessas cenas pareça ser confiável, geralmente não sabemos o que são. Podemos ver os sinais iniciais de cada um: a automação da motivação da IA aumenta a produtividade, a espalhamento dos níveis, destruindo a confiança e se preocupa com modelos repugnantes que se opõem a seus guardas. Toda situação causará suas próprias adaptações a indivíduos, empresas, governos e comunidade.
A falta de nossa clareza no caminho do impacto da IA afirma que alguma combinação de três futuro é inevitável. A ascensão da IA pode levar a uma contradição, que pode ter consequências inesperadas, enquanto estimula a prosperidade. Haverá melhorias maravilhosas, como acidentes. Alguns novos setores aparecem com possibilidades e oportunidades de emprego, enquanto o restante da economia desaparecerá à falência.
Não temos todas as respostas, mas o futuro da poderosa IA e seu impacto na humanidade estão agora escritos. A última cúpula de ação de Paris AI foi um clima de acreditar no que vimos, essa não é uma estratégia inteligente. Governos, empresas e indivíduos devem projetar o caminho da IA antes de nos fazer. O futuro da IA não é apenas determinado pela tecnologia, mas pelas escolhas conjuntas que fazemos sobre como encomendá -la.
O vice -presidente do veterano do procedimento de tecnologia Gary Crossman Edelman.
Link da fonte