2015年12月20日 星期日

[Spark] 那些創立社群教我的五件事





去年的這時候剛接觸了Spark,由於整個Hadoop生態系對我來說是個全新的世界,身邊的人也都剛開始摸,台灣也還沒有相關的社群討論.一時血氣方剛,找了以前的同事以及上網搭訕一些人就組了讀書會.因為之前也有找人組過R或Python的讀書會,但是通常沒幾次就散了,對於Spark我一開始也沒太大期望.雖然中間也曾青黃不接,但是沒想到竟然這樣就熬過了一年Orz. 想想是個奇蹟所以來整理一下創立SparkTW第一年的心得.

2015年12月19日 星期六

[Career] 那些失敗的創業經驗教我的五件事情

Photo credit: hans.gerwitz via Visual Hunt / CC BY-SA

沒有人喜歡失敗,但是不可否認失敗在一般人的人生中有多常遇見以及重要,連連公子都可以說他一生充滿挫折了(連勝文:我的一生充滿挫折),何況我們一般小老百性.比起在乎失敗本身,更重要的是要能從失敗經驗中發現原因以及克服的方式.以上都是老生常談,直接進入實際案例.

2015年12月18日 星期五

[Career] Why do you need a data science team instead of a single data scientist?

Why do you need a data science team instead of a single data scientist?

Photo credit: jsgraphicdesign via Visual hunt / CC BY-NC-SA
This article is also posted on ElasticMining

When we talk about data scientist, maybe there is a superhero-like person appearing in your mind, because you have read a lot of magazine articles or columns about what a magical model they designed and how much value they could bring for business. I must admit that data science is really charming for business. When data become a kind of resource, data scientist is considered as a gold miner and is expected to extract something valuable from the data. However, whoever thinks a data scientist could do this ALONE is wrong.

2015年12月11日 星期五

[Spark] Spark TW 2015年最後一場活動


2015年的最後一場,也是SparkTW成立一週年,特別有意義的場子.不用特別報名,但是晚來就只能坐地板了!
2015年底最強壓軸檔 -- 時間:12/16號(三)晚上 7:30 -- 地點:大安站燦坤旁資策會九樓

非常有榮幸邀請到在Kaggle以及業界都相當有經驗的Mark Peng大大來跟我們分享他在參與比賽時的寶貴經驗.

2015年11月23日 星期一

[Spark] Why Use Apache Spark?


For today, I would like to switch the focus from programing or technical details, and share some of my experience and opinion with you from a Spark user’s perspective.

As a data analyst and data engineer specializing in BIG DATA, Hadoop cluster is always handy in saving data. When it comes to ETL processes or analysis, besides Spark, we have the following choices:

2015年11月9日 星期一

[Career] Why you should keep finding a job even though you are on the job


enter image description here
pic source: http://www.isironline.org/category/job-and-workshop-postings/
Hope my boss would not see this article.

Keeping finding a job is very important especially to who are in the IT industry. Why? Keep in step with market needs.

2015年10月31日 星期六

[Python] Are the two binary trees equal?

enter image description here
Previous blog introduced how to implement a binary tree in Python[Python] Inplement Binary Tree,Today I’ll introduce how to determine if two binary trees are equal.
If two binary trees are equal, they are structurally identical and the nodes have the same value. Considering the definition above, we use dynamic function to test the two trees if they are equal.

2015年10月25日 星期日

[Python] 以Inorder Traversal 檢驗是否為BST

enter image description here
承襲上一回[Python] 實作Binary Tree,今天要介紹怎樣確認Tree是一個Binary Search Tree.
定義上的Binary Search Tree(BST):
  • 左邊子樹的值都小於node的值
  • 右邊子樹的值都小於node的值
  • 左右的子樹都必須是BST

[Python] 實作BST的走訪

enter image description here
承襲上一回[Python] 實作Binary Tree,今天要介紹怎樣走訪在Binary tree中各個Node,俗稱Binary Tree Traversal.

2015年10月11日 星期日

[Python] 實作Binary Tree

enter image description here
因為不是科班出身,所以對於資料結構和演算法都沒什麼概念,利用雙十廉價的機會好好惡補了一番Orz…
Binary Tree(簡稱BT)在資料結構中是很基本的概念,概念上是每個節點都有左右兩個子節點,每個節點儲存一個值,最上面會有一個起始節點(或稱為root),每往下長一層就多了2**n個節點,以此類推.從BT衍伸出許多相關概念例如heap或各種樹,可能的優點包括加快搜尋速度或是排序速度等等,所以先了解BT是很重要的.

2015年9月6日 星期日

Divers 2015 首場演唱會開跑!


沈寂了一年的Divers終於要開演唱會啦!!(可能很多人沒聽過Divers,其實Divers就是小弟的樂團.)2015.09.13下午三點在板橋狀態準時開場,千萬不能錯過,只要告知是憑網誌讀者可以免費入場.錯過了這次就要再等一年喔XD
宣傳影片奉上:

2015年8月31日 星期一

[Apache Spark][Docker] 利用Jupyterhub打造隨開即用的spark教學環境--HiveContext設定




Spark在1.3.0之後發佈新的DataFrame,與Hive有更多的結合,預設也會啟動HiveContext,可以直接使用sql指令撈取hive中的資料.一般如果Spark與Hive放在同一個環境,只要將hive的hive-site.xml放到spark路徑/conf下面,就可以直接使用.但是現在當我們的環境放在docker裡面的話,設定上就要動點手腳.
相關文章:
[Apache Spark][Docker] 利用Jupyterhub打造隨開即用的spark教學環境
[Apache Spark][Docker] 利用Jupyterhub打造隨開即用的spark教學環境--HiveContext設定
[Apache Spark][Docker] 利用Jupyterhub打造隨開即用的spark教學環境-- numpy 設定

2015年8月26日 星期三

[Linux] 駭人之心不可有,防人之心不可無,Ubuntu簡單防護

enter image description here
上禮拜拿到Softlayer的時候,因為是實體機,有朋友告知安全性的問題,都已經將防火牆架設列在todo list裡面,但是因為大家平常都各自有事情要忙,想說沒有重要資料就先擺著.沒想到今天一早就接到ibm大大的聯繫說有不明人士嘗試進入主機…orz 沒想到平常看人家笑話今天自己變成笑話,果然出來跑的總是要還,在網路上的遲早會被駭.
事情是這樣的:

2015年8月23日 星期日

[心得] Softlayer 使用心得-管理介面


enter image description here
圖片來源:Softlayer



兩三個月前看到IBM有意願投入研究Spark,本來只是開玩笑性質說可以去拉贊助,沒想到IBM的大大就很主動來跟我們社群討論合作事宜.當時考量到我們一來參加比賽需要用到機器,二來想在Hadoop conference上開tutorial,所以希望能跟Softlayer租用機器.經過一些申請步驟和條件交換,機器終於下來了(感動).

2015年8月12日 星期三

[閒聊] 資料科學家的日常(外傳)


前幾個禮拜過去同事想了解傳說中的資料科學家到底平常在做什麼事情.報章媒體總是喧嘩的好像有資料科學家就能把大便變成黃金,但是身材其中就覺得根本不是這麼回事,就跟一般工作一樣有一堆鳥事要處理,所有神奇的東西都是血汗換來的.

直接放上投影片內容:

相關閱讀:
[Python] 資料科學家的日常(一) Read Data
[Python] 資料科學家的日常(二) Clean Data-清理HTML標籤 l.html

2015年8月7日 星期五

[Algorithm] [python] K-鄰近算法(KNN k-nearest neighbors) 實作


機器學習演算法通常分為監督式學習以及非監督式學習兩種,監督式學習指已知部分要分類的對象的分類結果(例如男性女性),用這些已知的部分來學習分類的模式,將未知的對象來做分類;非監督式學習則是單純從屬性差異來將對象分類.今天要介紹的KNN(K鄰近算法)屬於監督式學習的一種,透過已知的分類結果來給予未知對象分類.

2015年7月24日 星期五

[心得] 老傢伙,你了解我多少-雲端時代領導的挑戰

enter image description here
大部份的人都是員工身份,再與長官們合作時,一定多少都有在心裡或是跟朋友聊天的時候痛罵自己的主管.我也曾經抱怨過主管,無論是處理事情或是決策,甚至對人的態度等等,但是在幹樵的同時也會想到,萬一未來換我當主管時,遇到這些狀況該怎麼辦? 真的每種狀況都有完美的解決方式? 恐怕也很難有個完美的答案.

2015年7月22日 星期三

[閒聊] 年中回顧


        最近剛過了三個月的Review(今年四月換工作),整理了這三個月來的成果以及績效.雖然自己覺得很多時間在瞎忙,但是三個月來確實也累積了不少東西.剛好時間也到了年中,也從個人層面來回顧一下今年上半年的成果以及下半年要加油的項目.


  • 上半年在社群參與方面是及格的,成功的辦了pycon,Spark Group雖然中間一度找不到方向,但是最近又有很棒的夥伴加入一起奮鬥,靠著大家的參與也勉強自己跟上XD 

  • 新工作花了比較多時間在搞ETL和FrameWork,累積了不少對於linux系統的操作經驗,同時也對架構自動化系統有點信心算是一個額外的收穫. 

  • 演算法的部分上半年沒啥長進,但是最近開始實作一些分析資料,希望下半年可以多深刻理解一點.

  • 另外健康管理是很重要的,二三月因爲壓力關係身體很差,改善生活習慣和開始運動後好很多,希望能持續維持.

  • 上半年說要找的吉他老師一直擱著,常常很怠惰練琴,哀哀.

  • 一個意外的插曲就是參加了世界公民島的活動,真的大大打亂的原本的行程,預計下半年會更忙碌吧.

同時開很多副本的缺點就是就算沒事的時候腦中也會想著很多事情,但是這樣子真的很疲累,沒法好好的休息,也間接造成隨時都很疲憊的感覺,更無法好好利用休息時間,在心態和時間管理上應該要好好補強一番.


2015年7月18日 星期六

[Python] 資料科學家的日常(二) Clean Data-清理HTML標籤

enter image description here
繼承上次提的Read Data,Read本身除了讀取之外也包含著閱讀的意思.當資料讀取進來前後,都要好好閱讀資料,決定之後的分析方向.通常把資料讀取進來後,就會進入清理資料的階段.Clean Data雖說是分析資料的基本功,但是當資料大到某種程度後,Clean Data也變成相當惱人而且很多坑的事情.

2015年7月12日 星期日

[Python] 資料科學家的日常(一) Read Data

enter image description here

        資料科學家這個名字在這兩年紅到發黑,好像透過大數據和資料科學家能夠變成預言家,還可以憑空幫公司賺進數倍利潤,本系列文章將以實例揭露所謂資料科學家平常在做的事情,打破各位對這個職業的幻想XD 這次示範的資料來源來自Pixnet辦的hackthon其中的spam(辨識垃圾文章)的資料.

2015年7月6日 星期一

[Python][教學] 網路爬蟲(crawler)進階實務 -- 破解十八禁網站(三)

enter image description here

一般瀏覽網頁的時候,遇到十八禁的網站都會套跳出像這樣的警示畫面,我們當然很習慣的點下已滿十八歲就能閱讀內容.但是對於爬蟲來說卻不見得那麼簡單.

2015年6月27日 星期六

[Python] Receiver operating characteristic (ROC) Curve 實作教學

enter image description here
        ROC Curve以及AUC(Area Under Curve)常被用來衡量預測模型的效果,但是因為之前不了解演算法只會套公式,所以趁空擋簡單實作了ROC演算法.

        ROC Curve主要是要將分類模型的效果視覺化,幫助研究人員選擇模型.ROC Curve適用於輸出為機率的分類(例如svm, logistic regression),計算在不同機率條件下,對於判斷結果的影響.

2015年6月23日 星期二

準確率(Precision)與召回率(Recall)


enter image description here

在評估預測模型好壞時,常用的到指標包括Precision, Recall, ROC Curve, AUC等等.但是先前唸書的時候,都只是傻傻背定義,對指標的實際意義沒有太多感觸,直到最近真正跑了幾個模型,開始認真的想要預測結果時,才更深入了解這幾個指標含義及精神.

2015年6月20日 星期六

[Python] Pycon2015 工作人員心得

       

        在決定要投入當工作人員時,裡面一個人我都不認識XD 可以這樣貿然投入三天兩夜的活動對我來說也滿特別的,紀錄一下這個難得的經驗.從高中開始就滿愛辦活動的,要說什麼很崇高的原因到也沒有,可能只是單純喜歡與一群人合力策劃的感覺吧.雖然高中時候因為經驗和個性不佳把活動砸了造成好幾年的陰影,但是隨著年紀漸增,也比較懂得協調處理事情.過去參與的活動都由特定的組織(例如社團貨公司)辦理,由社群辦活動算是當初比較難以想像的事情.

2015年6月12日 星期五

[Python][教學] 網路爬蟲(crawler)進階實務 -- 頁中有頁(二)

enter image description here
上一回[Python][教學] 網路爬蟲(crawler)進階實務– 自動爬蟲(一)介紹了怎麼繼承已經寫好的CrawlSpider物件來達到根據規則自動爬網頁的效果,但是如果你要爬的分頁沒有特定的規則,或是只想抓取頁面中的特定連結又該如何處理呢?
例如我今天要抓這個網站的掛號資料可以透過網址比對找出類似的網址之後,再一層一層的解析這個表格:

2015年5月30日 星期六

[Python][教學] 網路爬蟲(crawler)進階實務-- 自動爬蟲(一)

圖片來源:http://www.richbank.com.tw/CashierAndRegistration.html

前面幾篇[Python][教學] 網路爬蟲(crawler)實務(上)–網頁元件解析[Python][教學] 網路爬蟲(crawler)實務(下)–爬蟲策略以及設定介紹了撰寫爬蟲程式基本的觀察以及實作方式.這樣的方式爬一兩個小網站還可以,但是如果要爬比較複雜或是多個網站就比較難維護.因此實務上比較常使用Scrapy這個爬蟲框架來處理,這次將介紹更進階的使用方法給各位.

2015年5月23日 星期六

[Game] 古早以前自行開發的Android手遊-Bulls and Cows

enter image description here
大約兩年前入手了人生第一隻智慧型手機,就一直很想開發自己的小遊戲讓上廁所打發時間用.報名了一期的台大java班以及一節的Android班後,假日就開始窩在電腦前開發.作為第一個也是目前唯一一個自己開發的手遊,是應該寫文章紀念一下,雖然現在已經完全忘記實作細節XDD

2015年5月18日 星期一

[Game] 有著經典靈魂的日式本格RPG手遊--鎖鏈戰記

enter image description here
從小就玩著各種日式RPG長大(像是TOE,聖劍傳說,FF)等,平台一路從任天堂,超任,PS等(馬上暴露自己年齡),但是在手機上卻一直沒有一款像樣的日式RPG出現(各種婦科版不算).直到遇見了鎖鏈戰記
日式PRG不同於韓國線上RPG遊戲,只顧著練功打寶,需要更深厚的劇情以及人物之間的關係,這些都在鎖鏈戰記上表現得非常好.

2015年5月17日 星期日

[DB] Teradata PPI(Partitioned Primary Index) 優化策略教學


        近日在使用Teradata時常感覺校能不如預期(前公司的TD太強了也是原因),但是硬體沒辦法改變,只好從其他地方調整校能。Teradata是分散式儲存的資料倉儲,一些index的方式和一班資料庫不同,沒有Primary Key而是使用Primary Index(簡稱PI)來決定資料散佈的方式,當PI值越離散,資料也會越平均的分布在每個AMP上,下Query時,可以每個AMP同時平行的的處理資料,來加快查詢速度。但是因為資料量時在太大,若要再加快存取時間,就要減少找尋資料的時間,避免Full Table Scan,因此另外使用PPI,來優化查詢過程。

2015年5月12日 星期二

[閒聊] 就算無法成為燈塔,也望著燈塔走吧



最近看到有人將這樣的觀念具體的寫了出來想成為一流,就學習一流人士,就搭個順風車閒聊一下。文章中提到:
  • 「想成為一流,就跟一流的人學!跟二流學只會比二流還不入流!」(這裡所謂的一流,指的是在你希望拿出成果的領域中持續保持成功的人士。)
  • 只要自身有所成長,適合自己學習的榜樣,就會不可以思議的出現。所以請不用心急,腳踏實地的慢慢實現自己的目標吧。
人類生長的過程無論有意無意,總是在尋找學習的對像(或說Model),受著旁人的影響。一般兒童發展心理學認為孩童會從父母身上學習到性別角色的內涵,也會從重要他人身上來評價,觀察自我。如同中國古時有孟母三遷,我們也應該更有意識的選擇身邊的人以及學習對象。

2015年5月6日 星期三

[閒聊] 如何留住小老虎(Young Tiger)

enter image description here


圖片是石虎

小老虎典故出自布希([網路上找到的]
(http://store.gvm.com.tw/article_content_13927_5.html)),比喻有潛力的年輕國家,這邊是用來描述有潛力的年輕人。來源正確性就不要追究了,也不是本文重點。前幾個月離職的時候,大老闆問我如何留住有潛力的年輕人(在那個職位上的確走了幾個很棒的年輕人,大概都待不到一年,我本人很老了)。這個問題很耐人尋味,也是常在管理雜誌上看到的議題,但是因為沒待過上位管理職,無法提供實際的經驗與操作方法,只能就一些底層的觀察和與朋友聊天的內容上來想像並打打嘴砲。

2015年4月27日 星期一

[Python] Google 經緯度反查詢API

enter image description here
(圖片來源:http://www.ibm.com/developerworks/library/j-coordconvert/)
先前利用python寫了一個簡單的小工具接google的api來查詢住址的經緯度-[Python] Google 經緯度查詢Api.最近因為一些需求,需要從經緯度反查住址,所以就把這個小工具更新了一下.

2015年4月19日 星期日

[linux][教學] 用grep + awk+sed處理文字資料

enter image description here
資料來源:http://animals.oreilly.com/origin-of-species/
過去處理資料可能會使用像是R之類的工具,但是最近開始k些linux的指令後,認識了awk & sed,從此愛上他們.awk和sed是linux中處理使用串流方式處理字串的工具,特色是支援pipeline(亦即可以接其他資料來源,以及將處理完的資料丟給別人處理),正規表達式,而且速度極快!平常可以用awk & sed搭配像是grep等文字工具,來處理linux中的文件檔案(特別是log檔),做一些字串的篩選和判斷.這次將用網頁log資來作為範例.

2015年4月17日 星期五

[心得] 究竟是“學習”還是“已知用火”?


回顧了一下去年的文章,發現去年的四月才剛接觸R,之後過了兩個月開始學python,接著又在去年底開始接觸scala,spark,最近兩個月開始用shell script(這些應該從我雜亂無章的網誌內容看得出來),常常會會質疑自己在這過程中到底真正學會了什麼東西,還是已知用火(出處)還自己為發現新大陸?

2015年4月13日 星期一

[工商時間] 2015 PyConAPAC 在台灣!強烈招募工讀生!

圖片來源:https://tw.pycon.org/2015apac/zh/

PyCon APAC 是由 Python 社群自發性為了亞太地區 Python 愛好者所舉辦的研討會。PyCon APAC 現在每年舉辦一次,歡迎每一位 Python 使用者參加。PyCon 最初是在 2003 年於北美開始舉辦,而如今全世界都有遵照 PyCon 精神所舉行的會議。(以上文字來自官網)今年的keynote講者非常厲害https://tw.pycon.org/2015apac/zh/about/keynote-speaker/,還有請來numpy,scipy的的作者Travis大大(好像叫Travis的都特別厲害orz),現在早鳥票火熱報名中(https://tw.pycon.org/2015apac/zh/registration/)!

然後最重要的就是徵求工讀生XDD 意者找我報名即可!!

2015年4月12日 星期日

[心得] 網路爬蟲專案規劃策略

先前花了一些篇幅在介紹網路爬蟲的使用方式,都是比較偏重技術面的討論,但是爬蟲本身在理解原理後並不難實作,下一個階段就是如何規劃一個完整的爬蟲專案,這反而是比較需要討論以及有挑戰性的部分.過去的爬網專案都以中小型(監測的網站約50個以下,頻率頂一個小時一次)居多,以這樣的規模來討論在規劃上可能要注意哪些事情.

2015年4月9日 星期四

[linux] 將pipe結果當成if條件使用

enter image description here
shell script真的是方便的工具,最近剛學會一點awk,一些過去很難處理的東西,現在都被簡化了.今天遇到的狀況是:想用shell script將另外一支程式包起來,並將程式的output另外存放,並且根據output的內容回饋給使用者一些訊息.

[Apache Spark] 有趣的新玩意兒-Apache Zeppelin

enter image description here
圖片來源:https://zeppelin.incubator.apache.org
先前介紹了使用Ipython Notebook來使用PySpark(連結),那麼麻煩的設定就是為了能夠藉由Ipython notebook的介面來使用spark.Ipython Notebook可以讓使用者立即與程式碼互動,對於資料分析或觀察都相當的方便.這麼好用的工具,當然也有大大開發了Spark的版本,但是設定上比較麻煩,就沒有特別介紹.但是好工具總是不寂寞,今天要介紹的Zeppelin,由NFLAB開發,在2015年三月正式加入Apache家族,不但可以直接以Ipython notebook的介面來操作Spark,還有令人驚訝的視覺化功能.

2015年4月4日 星期六

[職涯] 厲害的是公司,還是我?

enter image description here

圖片來源:http://www.thesun.co.uk/sol/homepage/sport/football/4909280/Fans-dig-GRAVE-on-pitch-in-Serbia.html

我曾經在一家S&P 500中的外商上班,剛進去的時候覺得自己很幸運,公司福利和同事也都不錯,當時的我還抱持著進入一家好的公司,好好努力就能平穩過日子的信念.但是就分別在我進入後的半年以及一年半時,兩個我非常敬重也很敬佩的主管相繼離去,兩位都在公司服務超過十年,也在不低的位置.這件事情讓我重新思考公司以及工作對我的意義.

2015年3月25日 星期三

[Apache Spark] Spark SQL 1.3.0 簡介及心得



SPARK SQL 1.3.0 有了重大的改變,將原本的SCHEMA RDD轉成 DATAFRAME,發展方向也更加明確,這是綜合一些資源和嘗試的投影片,給大家參考,也請不吝指教.
幾個綜合的心得:

2015年3月20日 星期五

[DB] Teradata SQL最佳化教學(三)-- Reducing Table Update Time

這是系列文的最後一篇文章,介紹怎樣減少更新資料表的時間.根據上面的文章,如果基本的資料分散有做好的話,要加快資料查詢速度,要不就要浪費硬碟容量(產生非正規劃的資料表),或是將時間轉移到更新時間上,這時候需要去抉擇到底要犧牲哪部分.

2015年3月19日 星期四

[DB] Teradata SQL最佳化教學(二)-- 減少大型SQL語句


前一篇談的是SQL和INDEX的優化方式,接下來是指縮減大型的SQL語句.一般寫程式會盡量把步驟在一個SQL裡面做完,但是TERADATA在運作上,由於會運用Spool暫存SQL運行產生的表格,加上資料量又大,如果SQL語句太複雜,將會把Spool吃滿,反而增加運行時間,這時候,可以參考這篇文章的策略,將SQL語句簡化.

2015年3月17日 星期二

[DB] Teradata SQL最佳化教學(一)-- SQL and Indexes

Teradata是一平行化儲存處理的資料庫,雖然完全支援SQL,但是一些邏輯還是不太一樣.特別是資料倉儲多半存放量大的資料(動則幾百萬筆,數百G的Table),寫得好和寫得不好的SQL執行起來效率差得非常多,這篇文章提供幾個大方向的建議.


2015年3月16日 星期一

[DB] Teradata 架構入門


Teradata(http://www.teradata.com)是資料倉儲的知名廠商,但是因為售價昂貴,通常只有大型企業採用,而且也沒有OPEN SOURCE,所以相關資訊都相當集中在Teradata手上.反正工作上會用到,所以把幾個有公開釋出的資料翻譯一下,給有相關需求,英文又苦手的人參考.

[Linux] Crontab低手紀錄(Scrapyd管理)

crontab
說到linux的排程工具,第一個都會想到crontab,crontab的確方便使用,但是剛接觸的時候也是花了不少時間瞭解,紀錄一下最近遇到的狀況,以免自己以後又犯同樣的錯Orz.

2015年3月15日 星期日

[Docker][教學] 使用Vagrant建立PostgreSQL環境(下)

        經歷過先前多次失敗,聽大大建議果斷放棄boot2docker,改用VM模擬一個Ubuntu來當作docker的執行環境,並且使用Vagrant來管理VM.Vagrant並不是一個真正的VM運行平台,而是一套方便管理VM的工具,可以透過Vagrant來簡化VM設定的流程(特別是要開很多個VM的時候),Vagrant實際上是使用virtual Box來運行VM.

2015年3月11日 星期三

[心得] 看模仿遊戲(Imitation Game)學管理(內有大量雷,未看過慎入)

圖片來源:http://brackety-ack.pages.roanoke.edu/2015/02/12/movie-review-the-imitation-game/

這個週末去朝聖了模仿遊戲.模仿遊戲主要在描述圖靈這位電腦科學的始祖,破解二次大戰時德國的加密設備(Enigma),以及晚年因為同性戀的身份被迫害而死的故事.整部片的重點雖然跟管理無關,但是打贏戰爭的確也不是個人英雄主義式的勝利,劇中也相當合理的帶到一些管理的議題,趁著記憶猶新的時候紀錄一下我的感想.

2015年3月5日 星期四

[Docker][教學] 使用Vagrant建立PostgreSQL環境(上)

enter image description here

開始使用docker後,現在都盡量將環境建立在docker上方便環境的設定以及移轉.最近想把postgresql移轉到docker上,但是怎樣都不成功(我的環境是OSX).試過官方的版本postgres,也有非官方的版本Painted-Fox/postgresql,搞了整整兩天經歷過無數次的失敗,才學到的血淚教訓–放下boot2docker,立地成佛