Artwork

เนื้อหาจัดทำโดย Brian Carter เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Brian Carter หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !

Reviewing Stanford on Linear Regression and Gradient Descent

8:25
 
แบ่งปัน
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on November 09, 2024 13:09 (5M ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 446880554 series 3605861
เนื้อหาจัดทำโดย Brian Carter เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Brian Carter หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

This lecture from Stanford University's CS229 course, "Machine Learning," focuses on the theory and practice of linear regression and gradient descent, two fundamental machine learning algorithms. The lecture begins by motivating linear regression as a simple supervised learning algorithm for regression problems where the goal is to predict a continuous output based on a set of input features. The lecture then introduces the cost function used in linear regression, which measures the squared error between the predicted output and the true output. Gradient descent, an iterative algorithm, is then explained as a method to find the parameters that minimize the cost function. Two variants of gradient descent, batch gradient descent and stochastic gradient descent, are discussed with their respective strengths and weaknesses. The lecture concludes with a derivation of the normal equations, an alternative approach to finding the optimal parameters in linear regression that involves solving a system of equations rather than iteratively updating parameters.

Watch Andrew Ng teach it at Stanford: https://www.youtube.com/watch?v=4b4MUYve_U8&t=1086s&pp=ygUSdmFuaXNoaW5nIGdyYWRpZW50

  continue reading

71 ตอน

Artwork
iconแบ่งปัน
 

Fetch error

Hmmm there seems to be a problem fetching this series right now. Last successful fetch was on November 09, 2024 13:09 (5M ago)

What now? This series will be checked again in the next day. If you believe it should be working, please verify the publisher's feed link below is valid and includes actual episode links. You can contact support to request the feed be immediately fetched.

Manage episode 446880554 series 3605861
เนื้อหาจัดทำโดย Brian Carter เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Brian Carter หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal

This lecture from Stanford University's CS229 course, "Machine Learning," focuses on the theory and practice of linear regression and gradient descent, two fundamental machine learning algorithms. The lecture begins by motivating linear regression as a simple supervised learning algorithm for regression problems where the goal is to predict a continuous output based on a set of input features. The lecture then introduces the cost function used in linear regression, which measures the squared error between the predicted output and the true output. Gradient descent, an iterative algorithm, is then explained as a method to find the parameters that minimize the cost function. Two variants of gradient descent, batch gradient descent and stochastic gradient descent, are discussed with their respective strengths and weaknesses. The lecture concludes with a derivation of the normal equations, an alternative approach to finding the optimal parameters in linear regression that involves solving a system of equations rather than iteratively updating parameters.

Watch Andrew Ng teach it at Stanford: https://www.youtube.com/watch?v=4b4MUYve_U8&t=1086s&pp=ygUSdmFuaXNoaW5nIGdyYWRpZW50

  continue reading

71 ตอน

ทุกตอน

×
 
Loading …

ขอต้อนรับสู่ Player FM!

Player FM กำลังหาเว็บ

 

คู่มืออ้างอิงด่วน

ฟังรายการนี้ในขณะที่คุณสำรวจ
เล่น