Artwork

เนื้อหาจัดทำโดย Emily Laird เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Emily Laird หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

Transformers Mini Series: How do Transformers work?

8:12
 
แบ่งปัน
 

Manage episode 425588407 series 3578824
เนื้อหาจัดทำโดย Emily Laird เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Emily Laird หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

In part two of our Transformer mini-series, we peel back the layers to uncover the mechanics that make Transformers the rock stars of the AI world. Think of this episode as your backstage pass to understanding how these models operate. We’ll break down the self-attention mechanism, comparing it to having superhuman hearing at a party, and explore the power of multi-head attention, likened to having multiple sets of ears tuned to different conversations. We also delve into the rigorous training process of Transformers, from the use of GPUs and TPUs to optimization strategies.
Connect with Emily Laird on LinkedIn

  continue reading

50 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 425588407 series 3578824
เนื้อหาจัดทำโดย Emily Laird เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Emily Laird หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

In part two of our Transformer mini-series, we peel back the layers to uncover the mechanics that make Transformers the rock stars of the AI world. Think of this episode as your backstage pass to understanding how these models operate. We’ll break down the self-attention mechanism, comparing it to having superhuman hearing at a party, and explore the power of multi-head attention, likened to having multiple sets of ears tuned to different conversations. We also delve into the rigorous training process of Transformers, from the use of GPUs and TPUs to optimization strategies.
Connect with Emily Laird on LinkedIn

  continue reading

50 ตอน

Tüm bölümler

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน