BLOG


  • Home

  • About

  • Categories

  • Archives

【幸福之路】读书笔记

Posted on 2018-03-16 | In 读书笔记

log:

  • 3.16 开始看
  • 3.16 完成生平
  • 3.16 写完第一章,发现写文速度过慢。接下来决定仅略作摘抄
  • 3.17 暂时停笔

preface

最近看到了罗素的几句名言,深受震动。查了查个人经历,决定读一读他的作品。还是老规矩,会穿插着我自己的想法,原文我都会用引用block起来。

main takeaways yet

  1. 过多地关注自身会带来痛苦。如同掉入漩涡。
Read more »

【国王 武士 祭祀 诗人】读书笔记

Posted on 2018-02-24 | In 读书笔记

自我的觉醒 大概是从破除对任何人的迷信开始的。你我皆凡人,生在人世间。

更新记录:

  • 2.24 写完draft
  • 2.24 看完

Preface

本书原文是讲 “如何成为一个男人”的。但是根据我一直认同的两点:

  1. 男女平权 (即将真正到来)
  2. 任何人的内心雌雄同体

我认为本书同样适用于女性 培养心中的男人。

这份读书笔记,更多是书摘。而且我省去了不少部分,比如对原型“阴影区”的解读。

Read more »

碎片人生

Posted on 2018-02-12 | In 人生

人是会变的?

Read more »

面试

Posted on 2018-01-27 | In 总结

月亮我要,六便士我也要

只是总结,不是指南。

todo:

  • follow-up email

总纲

这边的面试基本分两种:

  • technical interview
    • 以考察技术水平为主
    • 包括:询问简历,算法题,专项问题,etc
  • behavior interview
    • 以考察soft skill为主
    • communication skill,leadership,team work
    • 包括:询问简历/经历,以及对此公司的了解,etc

可以看到在两种interview中,其实都会问到简历/项目。但是要知道在不同类型的interview中,是需要以不同的方式来回答的。若是tech interview中,那就go into more details,罗列出使用的技术,等等;而若是在behavior interview中,就需要讲的尽量浅显易懂,并且体现出自己的热情,与他人合作能力,以及技术与当前面试的公司的共同点,等等。

分辨到底是technical还是behavior,一般都可以直接询问。或者可以根据面试官的背景而定,如果是hr来面,那必然behavior无疑;如果是engineer,那就是technical;如果是engineer背景的manager,那就可能两种都存在了,需要灵机应变。但是总之,提前准备的时候,按照这两种都充分准备好,总是没错的。

面试过程并不是一种没有意义的零和游戏,当然也不是完美的筛选机制。就像各种考试一样,通过一些有标准的,有一定筛选能力的条条框框,给面试者和公司共同带来方便。玩什么游戏,首先需要能够打心底认同游戏规则,然后熟悉它,成为老玩家。面试的过程往往也是双向的,公司挑选你,你同时也在挑选公司。good luck!

算法题

我刷题刷的不多,不过各个方面知识点也算是大概摸到了。主要跟着九章算法过了一遍。这里有我之前做的刷题笔记,基本上有意义的每一道题都有记录:

Read more »

我的生活节奏 - 2018

Posted on 2018-01-21 | In USC

自律者自由

欢迎小伙伴一起来,健身,自习,玩耍!!

Read more »

我为什么要写博客

Posted on 2018-01-14 | In 随笔

good question, in short, 套用别处的一句话:但求同好,无关浮名。

  1. 我本来就有记录笔记的习惯,学习笔记就不说了。有时候看完了书,看完了电影,甚至只是遇到一些有感触的事情,都会记一点东西下来。我的记性很不好,有些感触稍纵即逝,之前丢了好多,现在希望多留一点。
  2. 放在一个开放的环境中,潜意识中觉得会有读者来看。以此可以稍微激励自己写东西的欲望。
  3. 如果真的有读者来看的话,我会很激动。生活中大家已经都很艰难,交往的时候为了让彼此开心,谈论的东西都是流于表面, try to be cool, be fun。深入交流的机会不多,而我又不是太擅长谈心。文字可能能承载一些更大更重的东西。
  4. 当然,记录和分享一些技术性的东西,也是目的之一。
  5. 审视自己内心的深渊需要勇气,敢于把深渊的一部分 露出来让别人看到,除了勇气,还有风险。希望自己能够把握好度吧。

谈真正的快乐

Posted on 2018-01-12 | In 人生

随心update

他说他不畏风雨。 我定睛看去,他手中紧握着那把伞。

preface

我为什么要写这篇文章?或者从根上说,为什么要做这样的思考?

芸芸众生,千张面孔。但是唯一不变的,可能就是追求快乐的心。当然平常我们大家可能都被生活压的透不过气来的时候,第一要务是生存。但是当一有喘息之机,比如工作日下班下学的路上,看着漫天星撒,亿万个生灵都看着天空,问道:“又是一天过去,这一切都是为了什么?我快乐吗?我怎样才能快乐?”

前一段时间,教我学车的教练送我去考驾照,由于地点很远,我们是凌晨5点半出发的。我们可能都很累,路上与教练闲聊:”您平常都是这么早起的吗,这也太早了吧好困“。教练大概告诉我说是的,但是接下来的一段记得很清楚:“哎 有时候想想这么辛苦 都是为了什么哎”。然后整车安静,没人能回答,自然这个问题也没有答案。(哈哈哈哈话题终结者技能get

我一直在追求 可是却不知道在追求着什么

无限渴求着未满足的欲望,可是永远只是水中月。仿佛你获得了,然后得到一阵的快感,但是很快又会消退;有的时候看了激动人心的电影,听了激动人心的音乐,突然振起发力,可不一会儿,又疲惫下去了,被称为“三分钟热度”。仿佛莫比乌斯环,你以为你前进了,可是实际还在原点。你的快乐,boom and burst.

但是有些人好像就有着持久的快乐:有人仿佛天生乐天,有人沉迷于自己的小世界,有人站在自己领域的顶峰。这些人真的令人羡慕,他们的快乐怎么获得的?我是否有这样的机会,能够像他们一样呢?

在回答这个问题之前,也许需要先剖析一下,这些不同的快乐都是什么。我想试图通过这篇文章,或多或少的对“追寻快乐”这件事情有更深的认识,并且希望能够对实际生活也有帮助,让自己做的更好。

Read more »

【黑客与画家】读书笔记

Posted on 2018-01-08 | In 读书笔记

更新记录:

  • 1.28完成生平,第一章
  • 1.08准备动笔

【黑客与画家】作者 Paul Graham

preface

我认为本书适合所有人群看:程序员,科技从业者,教育从业者,创业者,甚至是艺术家。因为这本书并不仅仅是“一个科技创业者”的自传,也不是教你怎么好好写程序。而是在从一个很高的地方,看世界,看人文。至于科技,不过是一根中轴线,从科技的发展看到对世界的影响。

还是强烈推荐大家去读原书,就像小说一样。

此篇读书笔记,希望能尽可能多地记录Paul原意(原文我都会使用引用),同时加入我自己的思考。

Read more »

USC课程总结

Posted on 2017-10-28 | In USC

持续更新中…

preface

写这篇文章的主要动机是回顾一下我在USC选的课,以及这些课给我(一个转专业的学生)带来了什么。每门课的介绍不单单会包含课程本身的介绍,中间也会混杂着从这一门课中 我对Computer Science的理解,以及对自己职业发展,还需要什么知识 的想法。

USC的课程质量总体还是不错的,不过目前还没有发现任何一门课上完之后会有所谓 “脱胎换骨” 的奇效。凭借一门课的知识,想在那个领域有所了解(入门)是可以的,但是远远不够促成这个领域的 engineer 或者 researcher(熟练)。想要达到熟练的水准,还需要自己多了解,多练习。

Read more »

论文笔记 《FitNets- Hints for Thin Deep Nets》

Posted on 2016-07-24 | In Machine Learning

OK, 这是 Model Compression系列的第二篇文章< FitNets: Hints for Thin Deep Nets >。在发表的时间顺序上也是在< Distilling the Knowledge in a Neural Network >之后的。FitNet事实上也是使用了KD的做法。

这片paper在introduction就很好地总结了一下前几个Model Compression paper的工作,这里稍做总结:

  • < Do Deep Nets Really Need to be Deep? >主体为了突出“一个模型的复杂,不一定代表他的表达也是复杂的”。主要是用浅层的网络mimic了一个深层的网络(然而这两个网络的size是相同的)然后达到了相似的performance。其中的loss是两个网络最后的logits之间的距离。顺便值得一说的是,这篇paper中提到,需要用尽可能多的unlabeled data(不是从training set中的)来mimic,才会使student model能尽可能接近teacher model。后面这几篇应该也用了类似的方法。
  • < Distilling the Knowledge in a Neural Network >主要在于改变了loss,不单单是使用logits,这点就不赘述了,上一片笔记Distilling the Knowledge in a Neural Network笔记中有详细解释。
Read more »
12

Fanghao Luo

16 posts
6 categories
9 tags
Website
© 2019 Fanghao Luo
Powered by Hexo
|
Theme — NexT.Mist v5.1.4