Artwork

เนื้อหาจัดทำโดย Hugo Bowne-Anderson เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Hugo Bowne-Anderson หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

Episode 29: Lessons from a Year of Building with LLMs (Part 1)

1:30:21
 
แบ่งปัน
 

Manage episode 425676489 series 3317544
เนื้อหาจัดทำโดย Hugo Bowne-Anderson เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Hugo Bowne-Anderson หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Hugo speaks about Lessons Learned from a Year of Building with LLMs with Eugene Yan from Amazon, Bryan Bischof from Hex, Charles Frye from Modal, Hamel Husain from Parlance Labs, and Shreya Shankar from UC Berkeley.

These five guests, along with Jason Liu who couldn't join us, have spent the past year building real-world applications with Large Language Models (LLMs). They've distilled their experiences into a report of 42 lessons across operational, strategic, and tactical dimensions, and they're here to share their insights.

We’ve split this roundtable into 2 episodes and, in this first episode, we'll explore:

  • The critical role of evaluation and monitoring in LLM applications and why they're non-negotiable, including "evals" - short for evaluations, which are automated tests for assessing LLM performance and output quality;
  • Why data literacy is your secret weapon in the AI landscape;
  • The fine-tuning dilemma: when to do it and when to skip it;
  • Real-world lessons from building LLM applications that textbooks won't teach you;
  • The evolving role of data scientists and AI engineers in the age of AI.

Although we're focusing on LLMs, many of these insights apply broadly to data science, machine learning, and product development, more generally.

LINKS

  continue reading

34 ตอน

Artwork
iconแบ่งปัน
 
Manage episode 425676489 series 3317544
เนื้อหาจัดทำโดย Hugo Bowne-Anderson เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Hugo Bowne-Anderson หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

Hugo speaks about Lessons Learned from a Year of Building with LLMs with Eugene Yan from Amazon, Bryan Bischof from Hex, Charles Frye from Modal, Hamel Husain from Parlance Labs, and Shreya Shankar from UC Berkeley.

These five guests, along with Jason Liu who couldn't join us, have spent the past year building real-world applications with Large Language Models (LLMs). They've distilled their experiences into a report of 42 lessons across operational, strategic, and tactical dimensions, and they're here to share their insights.

We’ve split this roundtable into 2 episodes and, in this first episode, we'll explore:

  • The critical role of evaluation and monitoring in LLM applications and why they're non-negotiable, including "evals" - short for evaluations, which are automated tests for assessing LLM performance and output quality;
  • Why data literacy is your secret weapon in the AI landscape;
  • The fine-tuning dilemma: when to do it and when to skip it;
  • Real-world lessons from building LLM applications that textbooks won't teach you;
  • The evolving role of data scientists and AI engineers in the age of AI.

Although we're focusing on LLMs, many of these insights apply broadly to data science, machine learning, and product development, more generally.

LINKS

  continue reading

34 ตอน

Toate episoadele

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน