ออฟไลน์ด้วยแอป Player FM !
#174 Zita Marinho - Como funcionam os algoritmos do ChatGPT e de outros Large Language Models?
Manage episode 447924488 series 1606220
Zita Marinho é investigadora na Google DeepMind, onde atualmente trabalha em Reinforcement Learning (“aprendizagem por reforço”, uma área de Machine Learning). Possui um duplo doutoramento em Robótica pelo Instituto de Robótica da Carnegie Mellon University e do Instituto Superior Tecnico em 2018. Os seus interesses de investigação estão na interseção entre algoritmos de aprendizagem automática e Processamento de Linguagem Natural.
-> Apoie este podcast e faça parte da comunidade de mecenas do 45 Graus em: 45grauspodcast.com
-> Workshops de Pensamento Crítico.
_______________
Índice:
(0:00) Introdução
(6:40) Algoritmos de redes neuronais | Nobel da Física 2024 | Importância de ter várias camadas | Vanishing and exploding gradients
(20:27) Como aprendem os modelos? Gradient descent e backpropagation | Redes recorrentes | Nobel e os modelos de Ising
(28:24) A revolução dos Transformers, tipo ChatGPT. Paper Attention is All You Need
(36:55) O que fez o ChatGPT de inovador? | Comparação com o cérebro humano | ChatGPT va outros modelos LLM actuais (e.g. Gemini, Claude)
(44:58) Dicas de prompting
(50:16) Forcas e fraquezas dos modelos actuais. | Propriedades emergentes misteriosas Relatório da BCG | Riscos de alucinação
(55:17) Futuro | reasoners (OpenAI's o1 Model) | Dicas de prompting | Limitações de dados | Alphaproof medalha de prata nas Olimpíadas da Matemática | robótica | redes convolucionais | Dos modelos GPT ao chatbot
(1:11:13) Artigo “The bitter lesson”, de Rich Sutton | Deep Blue
Livros recomendados: The Learning Brain, Thad A. Polk, A Brief History of Mathematical Thought, de Luke Heaton, A Brief History of Intelligence, de Max Bennett, Language Models: A Guide for the Perplexed
_______________
Esta conversa foi editada por: Hugo Oliveira
206 ตอน
Manage episode 447924488 series 1606220
Zita Marinho é investigadora na Google DeepMind, onde atualmente trabalha em Reinforcement Learning (“aprendizagem por reforço”, uma área de Machine Learning). Possui um duplo doutoramento em Robótica pelo Instituto de Robótica da Carnegie Mellon University e do Instituto Superior Tecnico em 2018. Os seus interesses de investigação estão na interseção entre algoritmos de aprendizagem automática e Processamento de Linguagem Natural.
-> Apoie este podcast e faça parte da comunidade de mecenas do 45 Graus em: 45grauspodcast.com
-> Workshops de Pensamento Crítico.
_______________
Índice:
(0:00) Introdução
(6:40) Algoritmos de redes neuronais | Nobel da Física 2024 | Importância de ter várias camadas | Vanishing and exploding gradients
(20:27) Como aprendem os modelos? Gradient descent e backpropagation | Redes recorrentes | Nobel e os modelos de Ising
(28:24) A revolução dos Transformers, tipo ChatGPT. Paper Attention is All You Need
(36:55) O que fez o ChatGPT de inovador? | Comparação com o cérebro humano | ChatGPT va outros modelos LLM actuais (e.g. Gemini, Claude)
(44:58) Dicas de prompting
(50:16) Forcas e fraquezas dos modelos actuais. | Propriedades emergentes misteriosas Relatório da BCG | Riscos de alucinação
(55:17) Futuro | reasoners (OpenAI's o1 Model) | Dicas de prompting | Limitações de dados | Alphaproof medalha de prata nas Olimpíadas da Matemática | robótica | redes convolucionais | Dos modelos GPT ao chatbot
(1:11:13) Artigo “The bitter lesson”, de Rich Sutton | Deep Blue
Livros recomendados: The Learning Brain, Thad A. Polk, A Brief History of Mathematical Thought, de Luke Heaton, A Brief History of Intelligence, de Max Bennett, Language Models: A Guide for the Perplexed
_______________
Esta conversa foi editada por: Hugo Oliveira
206 ตอน
ทุกตอน
×ขอต้อนรับสู่ Player FM!
Player FM กำลังหาเว็บ