机器学习持续学习中,
💥😩😤
西瓜书第一轮ing(100%)
Coursera Machine Leaning(100%)
《机器学习实战》(emmm刚开始)
LogisticRegression(逻辑回归)
Coursera课后作业——ex1
很久以前做的,还是提交一下
线性回归基础( Linear regression )
- Hypothesis:
- Parameters:
- cost Funcition:
- goal:
在最小化损失函数的过程中需要用到梯度下降算法(Gradient descent)
梯度下降算法(Gradient descent )
- Have some function:
- Want:
Outline:
- start with some $\theta _{0},\theta _{1}$,(一般都取0)
- keep changing $\theta _{0},\theta _{1}$ to reduce $J(\theta _{0},\theta _{1})$,直到我们找到J的最小值或是局部最小值
repeat until convergence{
}
将hexo自定义域名升级https
一些TensorFlow的基本操作
交互式使用
文档中的 Python 示例使用一个会话 Session
来 启动图, 并调用 Session.run()
方法执行操作.
为了便于使用诸如 IPython 之类的 Python 交互环境, 可以使用 InteractiveSession
代替 Session
类, 使用 Tensor.eval()
和 Operation.run()
方法代替Session.run()
. 这样可以避免使用一个变量来持有会话.
动态规划问题——最长上升子序列(LIS)(三)
推荐链接:
大佬给的思路,宝石叔叔博客里面有更多精彩!
上一个版本用二分法优化了时间复杂度,但其实根据数据的样本观察可知,后面的数据都是重复的,我们只需要当列表遍历到一小时数据的最后时将后面数据的最大数加入到列表即可,这样可以快速跳出循环,避免后面不必要的查找
以下代码略有区别,一种是计算数目,一种是使用新列表存储,但大致思路类似。
写完之后发现可以考虑的情况还是有的,还可以继续优化,不过优化到这里应该也差不多了,列表的append方法性能上是非常好的。两个版本Java耗时0.000196s,Python耗时0.000050s