今天 Coursera 上的 Machine learning 开课了. 后面还有一个 Compiler 课程.

2014-03-04 08:43:59 +08:00
 typing
期待好久了. 看自己的那些同学们搞的火热, 我也挺好奇, 这次入门一下.

此外我还有一个Upcoming的课程, 是Compiler, 也在coursera, 3月17日开课. 听其他同学推荐也非常不错.
Compiler是我大学就学过的, 这次只为练手.
5837 次点击
所在节点    分享发现
30 条回复
andyliu
2014-03-04 09:02:52 +08:00
留个链接 楼主
typing
2014-03-04 09:09:33 +08:00
xiaogui
2014-03-04 11:11:10 +08:00
@typing 题外话,楼主注册 Coursera 账号是,完整姓名如何填写的?中文?拼音?
typing
2014-03-04 11:21:30 +08:00
@xiaogui 我就用我的拼音(注意Last name是姓). 其他的也应该行吧...又不是办护照那么正规
xiaogui
2014-03-04 11:22:22 +08:00
@typing 嘿嘿,主要看有些课程提供认证证书。
AlexYang
2014-03-04 12:37:41 +08:00
多谢楼主
deanguqiang
2014-03-04 12:39:38 +08:00
上过前一期的课程。讲的比较浅,适合初学者。
arbipher
2014-03-04 12:49:21 +08:00
Machine Learning 第一期课友路过。850过。
mikewoo
2014-03-04 13:18:48 +08:00
也准备跟一下Machine learning
exch4nge
2014-03-04 15:01:45 +08:00
刚去报完名,回来逛v2ex,就发现这个贴了!楼主握个手!
typing
2014-03-05 22:03:24 +08:00
每天中午休息的时候和晚上抓时间上会课. 课程本身并不复杂, 所以在一种欢乐的气氛中进行.

如果numerical PDE也能有这种给你掰开揉碎讲的课程就好了(现在工作上它正折磨我...).

另外说到即将开始的Compilers, 我就不得不说C++ grand master certification(http://www.cppgm.org/).
看了那个课程的计划之后有一种"考试前一天还什么都不会"的感觉.
oldcai
2014-03-25 16:05:03 +08:00
额,这个这个,请问一下,Machine learning ml-005的作业Gradient descent for one variable的cost要迭代到多少才算通过啊,我
theta =

0.62615
1.01028

J_history =

19.00239
2.62444
0.54737
0.28394
0.25052
0.24628
0.24573
0.24565
0.24563
0.24562

最后cost = 0.24562
还是提示错误
T__T
oldcai
2014-03-25 17:10:04 +08:00
@andyliu
@typing
@xiaogui
@deanguqiang
@arbipher
@mikewoo
@exch4nge

有同学么,请问。


感觉我好像是对的呀,就是提交提示错误。
arbipher
2014-03-25 18:22:51 +08:00
@oldcai 请你至少告诉我是哪个文件。。。
arbipher
2014-03-25 18:24:26 +08:00
@oldcai 我傻逼了。。。等我装个octave先。。。
oldcai
2014-03-25 18:47:16 +08:00
@arbipher ^__^ 感谢回复哈
是第三个,gradientDescent.m
arbipher
2014-03-25 19:29:06 +08:00
@oldcai 我晚上回去帮你看下吧。。。我在咖啡馆里,不好意思挂迅雷下软件。。。
arbipher
2014-03-26 02:47:33 +08:00
@oldcai 我没有你这幅图,我们的题目一样吗。。。
我在ex1里面有gradientDescent.m这个文件, YOUR CODE HERE里面:
theta = .......;
我就写了一行。。。

J_history =
...
4.4836
4.4836
4.4836
4.4836
4.4836
4.4835
4.4835
4.4835
4.4835
4.4834
4.4834
4.4834

Theta found by gradient descent: -3.630291 1.166362
For population = 35,000, we predict a profit of 4519.767868
For population = 70,000, we predict a profit of 45342.450129
oldcai
2014-03-26 11:30:39 +08:00
@arbipher 这个图我是为了直观所以自己画出来看的。
我是用的考试数据~
看起来你的这个是练习数据,我的练习数据的结果是:
J_history =

14.9840
9.0562
6.9989
……
4.5740
4.5739
4.5737
4.5735
4.5734
4.5732

Theta found by gradient descent: -2.867800 1.089762
For population = 35,000, we predict a profit of 9463.666241
For population = 70,000, we predict a profit of 47605.328274

确实没有你的结果更收敛。
是不是你feature normalize过呀?
oldcai
2014-03-26 19:17:42 +08:00
@arbipher 谢谢!
我公式记错了,1/m记成了1/(2m),哈哈,通过了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/102754

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX