作者: paul

Unittest Python – My First Mock Lesson!!How to Mock 3rd party Component!!

Unittest Python – My First Mock Lesson!!How to Mock 3rd party Component!!

過往,我們在寫程式中,常常會去呼叫到參考的函式庫,或是請求外部的服務

這導致在單元測試中,我們會因為不具備其環境或是資源,而陷入難以測試的場景

若以整個系統來看,模組之間也可以說是相對的是一個”單元”吧,最常相依的就是資料!

這種情況,通常我們有的時間的話,可以大費周章的建立數據庫、測試檔案與環境,測試前後準備資料,刪除資料流程。

不過這往往是整測時才會遇到的場景,這邊先不討論。

 

我希望的單元測試是集中著重在自已這端的程式運作是否符合預期!!

管他外部環境怎樣,網路有沒有通、世界是否毀滅都與我暫時無關

mock的技巧就是來拯救我們上述說到的難題與困境,mock是用來模擬相依的外部服務或物件的物件。

也就是我們透過mock來將所有程式外部的相依性解除吧!!這麼說很玄

在python的unittest的函式庫中已有包含

 

這邊直接演示(記錄)程式使用的方式,這個例子有點簡單,但是幾乎完全相依!!

from pywebhdfs.webhdfs import PyWebHdfsClient

class WebHDFSHelper:
    __hdfs_client = None

    def __init__(self, host='', port='', user=''):
        self.__hdfs_client = PyWebHdfsClient(host=host, port=port,
                                             user_name=user)

    def create_dir(self, full_dir_path):
        try:
            #before - do something
            result = self.__hdfs_client.make_dir(full_dir_path)
            #after - do something
        except BaseException:
            #exception - do something
            raise
        return result
	
def test_create_dir_temp(self):
    helper = WebHDFSHelper(host="192.168.65.130", port=50070, user="root")
    result = helper.create_dir( "exchange_test" )
    self.assertEqual(result, True)
    pass

當我們要測試建立目錄這個行為時,我們往往會遇到困難就是我必須去真實連到一個hdfs的環境!!

通常可能開發者本機都會有,或者確保團隊有一些共同的測試環境

但這種相依性會導致,若程式移轉到其他人手上或是環境一變動

測試就會無法運作!

例如:ip變了!

 

這次我們來透過mock的技巧來演示如何將如何模擬這些hdfs服務

@mock.patch('pywebhdfs.webhdfs.PyWebHdfsClient.__init__')
@mock.patch('pywebhdfs.webhdfs.PyWebHdfsClient.make_dir')
def test_create_dir(self, mock_hdfs_client ,mock_init_service):
    mock_init_service.return_value = None
    helper = WebHDFSHelper(host="localhost", port=50070, user="root")
    mock_init_service.assert_called_with(host="localhost", port=50070, user_name="root")


    helper.create_dir( DATA_TEMP_PATH )
    mock_hdfs_client.assert_called_with(DATA_TEMP_PATH)
    pass

首先,我們要先模擬的就是

第一塊WebHDFSHelper下面的初始函式會去依照參數連線到外部的hdfs服務

self.__hdfs_client = PyWebHdfsClient(host=host, port=port,user_name=user)

第二塊是呼叫create_dir的時候的這一行會去呼叫參考物件的make_dir的方法,這個會相依上面那塊初始化後的物件。

result = self.__hdfs_client.make_dir(full_dir_path)

 

所以我們知道這兩塊是我們能獨立單元測試的排除目標

因此我們對應的宣告

@mock.patch(‘pywebhdfs.webhdfs.PyWebHdfsClient.__init__’)
@mock.patch(‘pywebhdfs.webhdfs.PyWebHdfsClient.make_dir’)

並對我們的test_測試函式,注入2組參數

def test_create_dir(self, mock_hdfs_client ,mock_init_service):

前者是我們到時要呼叫make_dir的方法,後者是我們初始化時要mock的行為。

註:這邊mock的patch宣告所對test函式注入的順序為何是倒序,我則不知道

 

接著依我們的場景,mock物件可以做幾件事

1.指定回傳物件,因為是模擬,就可以一併模擬回傳的結果

mock_init_service.return_value = None #若要模擬初始函式,就是回傳值一定是none

2.透過mock物件來確認是否有被呼叫到,連同參數一併帶入,注意參數名稱必須符合原始模擬物件的參數名稱)

mock_init_service.assert_called_with(host=”localhost”, port=50070, user_name=”root”)

 

因此測試如下:

class HDFSHelperTest(unittest.TestCase): 
    @mock.patch('pywebhdfs.webhdfs.PyWebHdfsClient.__init__') 
    @mock.patch('pywebhdfs.webhdfs.PyWebHdfsClient.make_dir') 
    def test_create_dir(self, mock_hdfs_client ,mock_init_service): 
        mock_init_service.return_value = None 
        helper = WebHDFSHelper(host="localhost", port=50070, user="root") 
        mock_init_service.assert_called_with(host="localhost", port=50070, user_name="root") 
        helper.create_dir( DATA_TEMP_PATH ) 
        mock_hdfs_client.assert_called_with(DATA_TEMP_PATH)

我們設個DEBUG中斷點看看,在初始化後,我們的內部變數已經被轉換成一個含有magicmock行為make_dir的物件。

因為初始化這邊沒有其他需要驗證的流程,因此我只去assert是否有照著我給的參數呼叫,這時管他這個環境是不是活著,我只需要知道”若”我給活的環境 就會正常。 若需要驗證例外行為,以這個例子,可以加入更多的例外處理。 這時一樣可以透過mock的return_value raise exception,這是做的到的,然而驗證的東西還是要自行定義,在一般函式環境的話,你可以因為例外給定預設行為,這樣也是有助於提高程式測試的覆蓋率。 例如:

mock_init_service.return_value = None
mock_init_service.side_effect = Exception("環境異常")
helper = WebHDFSHelper( host="localhost", port=50070, user="root" )
mock_init_service.assert_called_with( host="localhost", port=50070, user_name="root" )

如願拋出異常 最後,我們實際測試create_dir吧,第1段,我將他設定為mock_hdfs_client.return_value = True,第2段設定為False

確實會如願的走向1次成功、1次失敗,當然我這邊程式只為了驗證是否如配置去跑,所以只有這樣寫,一般成功、失敗處理上的邏輯差別還是會依原本物件設計的流程來運作 因此要「驗證」的東西與結果,仍然可以依自己的需求去調整與配置。 以上就是python的mock初體驗,以自己的例子還是比較清楚mock技巧的使用場景與方式…有錯的部分請不吝指教,感謝

 

測試程式完整版

from pywebhdfs.webhdfs import PyWebHdfsClient
class WebHDFSHelper:
    def __init__(self, data_path='', host='', port='', user=''):
        try:
            self.__hdfs_client = PyWebHdfsClient(host=host, port=port,
                                                 user_name=user)
        except Exception as err:
            print(str(err))
    
        def create_dir(self, full_dir_path):
            try:
                result = self.__hdfs_client.make_dir(full_dir_path)
                if result:
                    print("成功")
                else:
                    print("失敗")
            except:
                raise
            return result


class HDFSHelperTest(unittest.TestCase):
    @mock.patch('pywebhdfs.webhdfs.PyWebHdfsClient.__init__')
    @mock.patch('pywebhdfs.webhdfs.PyWebHdfsClient.make_dir')
    def test_create_dir(self, mock_hdfs_client, mock_init_service):
        mock_init_service.return_value = None

        mock_init_service.side_effect = Exception("環境異常")
        helper = WebHDFSHelper(host="localhost", port=50070, user="root")
        mock_init_service.assert_called_with(
            host="localhost", port=50070, user_name="root")

        mock_init_service.return_value = None
        mock_init_service.side_effect = None
        helper = WebHDFSHelper(host="localhost", port=50070, user="root")
        mock_init_service.assert_called_with(
            host="localhost", port=50070, user_name="root")
    
        mock_hdfs_client.return_value = True
        helper.create_dir(DATA_TEMP_PATH)
        mock_hdfs_client.assert_called_with(DATA_TEMP_PATH)
    
        mock_hdfs_client.return_value = False
        helper.create_dir(DATA_TEMP_PATH)
        mock_hdfs_client.assert_called_with(DATA_TEMP_PATH)
    pass
[Cassandra] 要如何透過python與CQL來新增User Define Type欄位的資料

[Cassandra] 要如何透過python與CQL來新增User Define Type欄位的資料

Cassandra是一個強大的nosql(在特定集群下資料的throughput可是mongo db的10幾倍),我只知道將其發揚光大的facebook,其歷史淵源我也不知多少,就先在此略過

nosql強調的是資料寫入、查詢的效能,但是為了突顯其效能,nosql有其內部的運作方式,因此有些使用上的特性必須去滿足他或是盡量要照著他的查詢規則,例如…cql的語法裡面,你的where條件必須一定要有partition key,而且還要照順序作條件,下update語法時,更新的條件,你一定要包含partition key,也只能使用=運算子,無法像sql那樣,批次大量地去異動資料(如果有錯,歡迎糾正),而且不是關鍵式資料庫特性,不需要正規化的那麼全面,甚至就是橫向的長下去也沒關系…但是若當資料格式是有1對多關系的時候,我仍然希望能存入到nosql的時候怎麼辦呢?

例如:

訂單order下,可能有很多的order item(購買項目),訂單匯總了金額,購買者,運送地址,購買項目關聯了訂單,並描述商品編號,商品數量,以往在RDB裡面,我們可能會設計2張表,然後透過join與transaction的方式來維護相關的資料。先舉個例子:我隨便設計一個產品明細類,然後再加入一個主表,我希望欄位就有1對多的產品明細關係,因此我訂了一個欄位叫order_items,然後型別就是list加上剛剛訂的order_product_item

 

以這樣的一張表有4個欄位,但是有明細與地址的進階型別,我們要如何新增呢?

若透過cql,只需要寫的像cql,並帶入json like的資料結構,就可以新增到我們的CustomerOrder的表了

insert Into "CustomerOrders" (customer_id, order_amount, order_items, shipping_address)
values(1, 2000, [
		{id:4, name:'game', count:1, price:1600, memo:{'tag': 'action game'}},
		{id:20, name:'toy', count:2, price:200, memo:{'tag': 'made by hand'}}
	   ], {zip_code:'210', nation:'Taiwan', city:'NewTaipeiCity', address1:'testAddress1', address2:''});

查詢結果:

注意,欄位裡面可不是string,而是有指定型別的結構,因此是可以作為後續查詢的條件。在這邊為止…先切入今天希望記錄的主題,就是如何透過python來綁定這種user define type。在傳統sql與程式寫transaction sql時,我們常常會這樣寫

insert into a (fieldA, fieldB) Values(@fieldA, @fieldB)

然後帶入paramter的方式,來防止sql injection與型別判斷,而cql呢…他也可以做到類似這樣的寫法:

insert into a (fieldA, fieldB) Values(:fieldA, :fieldB)
insert into a (fieldA, fieldB) Values(?, ?)

然後定義一個字典物件,一併丟給cassandra的driver:session去執行,就可以如我們以前在sql常看到的參數binding一樣,去執行語法並新增

parameter = dict( fieldA=fieldA_Value, fieldBcreator=fieldB_Value)

然而若是user define type的話,如何解呢?list物件,應該就是對應到python的list,應該沒問題,那其他的欄位,有辦法對應下一層dictionary嗎? 試了老半天都是卡關…但是不確定是卡在動態參數binding那段,還是字典裡型別的問題 後來發現了關鍵的官網文件在此:https://datastax.github.io/python-driver/user_defined_types.html 擷圖如下 什麼!!竟然可以直接繼承object物件,然後定義一個初始化方法,指定所有user define type的名稱(帶入的型別由外面檢查) 就可以做到?!我一開始還想試另一條路(有空再說吧…),繼承cassandra usertype型別,使用它的orm方式來做,但是看起來用那個方法無法綁cql一起運作,他有他的獨立運作方式。

 

看了他的試範讓我馬上試著建立類別,並如上圖的方式,直接帶parameter定義的欄位,以我們訂單的例子:

class Address(object):
   def __init__(self, zip_code, nation, city, address1, address2): #欄位都要有,名稱都要正確
       self.zip_code=zip_code
       self.nation=nation
       self.city = city
       self.address1 = address1
       self.address2 = address2
       
class OrderItem(object):
    def __init__(self, id, name='', count=0, price=0, memo=None):  # 欄位都要有,名稱都要正確
        self.id = id
        self.name = name
        self.count = count
        self.price = price
        self.memo = memo
cql = """
insert Into "CustomerOrders" (customer_id, order_amount, order_items, shipping_address)
values(:customer_id, :order_amount, :order_items, :address);
"""

order_items = []
order_items.append(OrderItem(4, "game", 1, 1600, {"tag":"action game"}))
order_items.append(OrderItem(20, "toy", 2, 200, {"tag":"hand made"}))


parameter = dict(
    customer_id=1,
    order_amount=2000,
    order_items=order_items,
    address=Address(zip_code=970, nation="Taiwan", city="NewTaipeCity", address1="Test", address2=""))

session.execute(cql, parameter)

下指令的方式已經像使用sql一樣簡單,而透過上述user define type的定義與python的程式操作可以更靈活的使用cassandra這個強大nosql的特性囉。只是回頭看看自己…捚頭苦幹…這個議題n小時,真的有點吃力不討好,在此紀念我今天try error浪費的光陰,不如官方文件看仔細一點…

ps: Word Press有沒有什麼可以插入code可以用很好的樣式來呈現的外掛呀…改天來研究一下…(先試試這個pastacode…相容於php7)

Docker映像與資料備份與還原:以cassandra為例

Docker映像與資料備份與還原:以cassandra為例

今天開發的時候遇到一個情況,就是我的測試程式依賴了我本機起的一個nosql cassandra服務,是建立在docker上的

因此我把程式提供給同事以後,發現他沒有環境,因此程式功能無法展示,當然一部份也要展示cassandra的使用方式

 

一時間還不會docker的備份與移轉,因此早上就急著先把vmware的images(約略15GB)複製給同事,光複製的時間就花了快二十分鐘,當下覺得這種環境移轉的方式太過於笨重,想到若我還要再把我本機的另一個安裝hadoop的vm也要copy過去的話,那這樣來來回回的時間就不知耗費掉多少,而且我的私人開發環境其實是我自己常用的密碼,所以分享起來也是挺麻煩的。

 

有上述念頭後,我開始嘗試著在我兩台不同的vm(都是ubuntu)上面,試著把docker備份流程做一次

docker images備份(起手式:連結)

首先,我們需要先將目前的container狀態commit,先docker -ps列出所有container的id

我們很快的就看到dev-cassandra就是我們要備份的目標,接著輸入以下的指令:docker commit -p  {{container id}} {{repository-name}}

sudo docker commit -p  3b5 cassandra-devenv

接著回到docker images列表,我們就會看到我們的新commit的images已經被建立出來了(圖中第一個)

container已經被commit了以後,那我們要怎麼轉成實體檔案呢?

指令很簡單:

docker save -o ~/cassandra-devenv.tar cassandra-devenv

這個指令要跑一下子,跑完以後,我們可以看到tar檔已經產生,看起來要400mb左右,著實比vm動輒1x gb來得輕量許多

這裡有一個小陷阱,就是要先去chown給paul與chmod 給檔案合適的權限

 

備份docker的資料卷資料

images既然被備份出來以後,那我們的資料呢?

還記得dockers要怎麼看資料卷的現實綁定的位置呀?就要靠docker inspect 指令了

sudo docker inspect 3b5

看到container的環境資訊後,會發現幸好這個dockerfile有將資料獨立出來,在mount的字段下,我們可以看到/var/lib/cassandra的根目錄,被指派在我們本機(ubuntu)的/var/lib/docker/volumes/31a88f59c57b5a75b98f9c4e6a539e4140cb226760fc540b15b930d96010a84c/_data下。
(註:這邊不同系統的資料或設定目錄要視系統而定,不見得每個系統都有必要這樣做切割,但大部分有這樣切割設定的images佈署的彈性才會更好,也才會有更好使用率)

既然知道了cassandra相關檔案的實體位置,我們先將它備份壓縮起來吧。我已經可以想像等下要連同docker image的檔案與data要壓縮複製過去另一台主機。

先備份到個人目錄:

sudo cp -r /var/lib/docker/volumes/31a88f59c57b5a75b98f9c4e6a539e4140cb226760fc540b15b930d96010a84c /home/paul

記得要下-r,才會recursive的複製所有子目錄、檔案

這時/home/paul的目錄下就有了31a88f59c57b5a75b98f9c4e6a539e4140cb226760fc540b15b930d96010a84c

接著我們來進行打包成tar檔,tar的壓縮指令請參考:連結

tar -zcvf ./cassandra-data.tar ./31a88f59c57b5a75b98f9c4e6a539e4140cb226760fc540b15b930d96010a84c

建議可以使用加上-z的參數,代表,透過gzip的方式壓縮,若沒有-z或-j的話,是代表僅打包,不壓縮

ls -l看看壓完以後只剩下33MB,看起來效果不錯

 

既然都已經備份出來了,包含docker與資料的壓縮檔

那我們要怎麼從vm複製檔案到另一個vm呀?在我還沒學會scp指令前,我還真的只知道vm的linux開分享samba,然後透過windows去copy到另一台分享出來的目錄

以上動作,真的只需要1行指令就做的到了,那就是scp,我們先ssh到另一台目標移置的vm去!!

輸入scp指令看看使用方式:

usage: scp [-12346BCpqrv] [-c cipher] [-F ssh_config] [-i identity_file]
[-l limit] [-o ssh_option] [-P port] [-S program]
[[user@]host1:]file1 … [[user@]host2:]file2

scp是secure copy的簡寫,因此我們可以從首n台主機host 1 ~host n的檔案,複製到local來,以我們的例子來說,我們只要切到目標主機的指令目錄以後,照著以下輸入

同意建立ecdsa以後,接著輸入遠端的密碼,就會發現他開始copy了:

 scp [email protected]:/home/paul/cassandra-data.tar ./ [email protected]:/home/paul/cassandra-devenv.tar ./ 

restore docker的image

都搞定以後,我們輸入以下指令,就可以將這個備份load到這台vm的docker的images

sudo docker load -i ./cassandra-devenv.tar

不過怪異的是,不知有沒有參數可以指令輸入的repository name與tag,我load進來以後,預設是none。接著考慮本機的環境,我希望將cassandra的data目錄換一個位置:就到my/own/datadir吧,這邊沒有絕對名稱,只需要自己分的清楚,解壓縮以後,按照當初打包的相對位置先放置好:

tar -zxvf cassandra-data.tar

註:這邊我後來想想若在壓縮時,有透過-z的參數進行壓縮的話,建議命名就要是tar.gz,否則解壓端應該很難知道需不需要加上-z的參數,這邊因為都是我幹的,所以我當然知道要這樣搞。通通都解到目標目錄,接著看看目錄內容是不是都有了
(註:這邊我還省略了一些解壓目錄以後,再從目錄把檔案cp或mv到my/own/datadir的過程)

接著只要輸入神奇的docker run指令,就會發現

 sudo docker run –name cassandra-dev -p 9042:9042 -v /my/own/datadir:/var/lib/cassandra -d e86

檢查一下,sudo docker ps,已經正常跑起來了,這邊其實我有發現,cassandra的服務通常都要跑三分鐘左右,有時initialize掛掉都是發生在2~3分之間,通常超過3分鐘,應該就是起來了

CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
2cf14dc1d4d0 e86 “/docker-entrypoint.s” 6 hours ago Up 6 hours 7000-7001/tcp, 7199/tcp, 9160/tcp, 0.0.0.0:9042->9042/tcp cassandra-dev

 

實際連到192.168.65.130(剛剛是從136備份過來)的cassandra來看看囉!嗯~資料看起來都有被複製過來~暫時大功告成!特此記錄一番

 

後記:每次要寫這種過程重現真的是很耗費時間(也整理了差不多1個多小時),我發現,最佳的記錄方式,其實就是當我們在試著學習與除錯的時候(若有那個餘裕啦)

就定期把相關的畫面與做過的事情,記錄到evernote或其他方便的地方,事後的整理事實上真的事半功倍…若下次有機會遇到的話…希望有機會想到…

 

autopep8 – pep8 auto styling tool 如何整合到Pycharm

autopep8 – pep8 auto styling tool 如何整合到Pycharm

身為一個半路出家的python幼幼班,常常為了轉換語言,而在命名、排版上與直覺發生出入

python有一個python pep8 style(相關介紹)

為了盡量符合pep8的style,這次我先決定套用工具幫我自動排版,希望等到這種排版看久了,自然也會內化吧orz

首先在cmd上輸入:(註:請先使用系統管理員執行cmd,否則會權限不足)

pip install autopep8

 

接著開啟pycharm,點選上方的導覽列file->settings 切換到tools / external tools的頁籤

接著新增一個external tools,參考以下輸入:

Name, Description都可以依自己喜好設定,tool settings這邊請照以下輸入

program: autopep8
parameters: –in-place –aggressive –aggressive $FilePath$ (–in-place代表是直接對該檔案調整,依測試是不可逆的)
working directory: $ProjectFileDir$

以上希望知道參數說明,可以自己打autopep8 -h 研讀


 

其中output filters來新增一組regular exp

範例:$FILE_PATH$\:$LINE$\:$COLUMN$\:.*

以上都設定好以後,我們在程式原始檔上,右鍵:external tools,這時會發現有autopep8的選項可以點

autopep8 –in-place –aggressive –aggressive C:\Users\paul\Desktop\WorkFolder\collection_proxy\data_transfer.py

 

我可以看到console其實他背後就是對指定檔案下以上指令,因此自己也可以這樣去下或批次調整,若希望不要改到原始檔案的話,請記得拿掉–in-place指令

想自行輸出的話,可以參考類似以下語法

autopep8 –aggressive –aggressive C:\Users\paul\Desktop\WorkFolder\meso_collection\meso_collection_proxy\data_model\exchange\exchange_data.py > ./exchange_data_new.py

Before

After

其實格式化後,至少我離python的常用排版更貼近了一些,至於程式可讀性這種東西,我覺得還是見仁見智,必竟程式碼閱讀主要是團隊裡的人看的懂,後續接手維護的人員看的懂最重要,因此程式最重要的還是首重命名,再來排版只要順眼,當然團隊中每個人都可能有自己順眼的方式,但要要找到一個共識,其實沒有絕對的標準答案的

Python相關學習資源(待閱讀)- Python , Nose , Testing..

Python相關學習資源(待閱讀)- Python , Nose , Testing..

http://webcache.googleusercontent.com/search?q=cache:DUqkgFQ2irkJ:www.cnblogs.com/liaofeifight/p/5148717.html+&cd=1&hl=zh-TW&ct=clnk&gl=tw

https://segmentfault.com/a/1190000002965620

http://www.chinesepython.org/pythonfoundry/marrpydoc/python1.htm

https://chrisarndt.de/talks/rupy/2008/output/slides.html : https://read01.com/JooyP.html

http://webcache.googleusercontent.com/search?q=cache:Mbml-raWdOEJ:www.wklken.me/posts/2015/08/29/python-source-memory-1.html+&cd=11&hl=zh-TW&ct=clnk&gl=tw

nose introduction

http://www.cnblogs.com/soaringEveryday/p/5044007.html

Nosql之Cassandra 的Docker 除錯歷程,schema重置大法

Nosql之Cassandra 的Docker 除錯歷程,schema重置大法

早上因為自己的vm容量不太夠,所以開始關機調配了一下相關設定,重啟vm後,照慣例是要restart相關docker服務,結果就馬上遇到下面的狀況
Cassandra掛掉了…,restart數次都這樣,跑了二分鐘後,就exit
sudo docker ps -a
一開始我只知道看log的指令,先看看是遇到什麼鬼問題吧…
sudo docker logs {{containner id}}
如下圖log顯示,commitlog異常,讀取失敗,導致cassandra爆掉…,但log上寫的全部都是containner內部的相對位置,我怎麼追查呀?重開一個containner是很簡單…但資料因為沒有獨立出來,所以有一些設計的schema若重啟一個是不是會不見呀?想到這邊,還是覺得這是一種逃避,決定下海來找原因
以往ap跑不起來,我比較知道的查詢的方式,是必須shell進去 container,然後在runtime環境查問題。但containner根本跑不起來…怎麼辦?
然後當初是透過dokcerfile(吧?)跑指令,所以無從知道這個containner有沒有綁定volumn,若沒有的話,我該怎麼去追查cassandra的問題呢?
查了一小多小時,有一個command露出了一線曙光
我们可以使用docker inspect命令找到Volume在主机上的存储位置:
$ sudo docker inspect -f {{.Volumes}} container-test
以cassandra 異常,為例:我們可以透過docker得知預設volumn的位置,這些位置其實可以在起始指令的時候進行綁定
部分指令好位置的我覺得沒問題,dockerfile也應該查的到,但沒有dockerfile可以 參考的,我們就可以透過這個指定看到containner現況的所有相關資訊
 “Mounts”: [
            {
                “Name”: “31a88f59c57b5a75b98f9c4e6a539e4140cb226760fc540b15b930d96010a84c”,
                “Source”: “/var/lib/docker/volumes/31a88f59c57b5a75b98f9c4e6a539e4140cb226760fc540b15b930d96010a84c/_data“,
                “Destination”: “/var/lib/cassandra”,
                “Driver”: “local”,
                “Mode”: “”,
                “RW”: true,
                “Propagation”: “”
            }
檢查其下的volumns路徑,發現data/我的keyspace下怎麼這麼多這個file,原來是我先前透過工具去clone TABLE的時候,其實都會記錄下來…封存在這邊,這邊我先不管了,先把那些我rename過的目錄都刪掉…
docker restart 後以後,還是死掉…,到這邊,我想到…log中寫的是commitlog異常,我看到cassandra的volumn根目錄下有一個commitlog的目錄,我直接把裡面的檔案mv到/backup,再重啟一次…終於正常了,schema回來了
但…資料不見了?  shit!!所以這些commitlog才是跟資料有關,data則是只有schema??神奇啊…至目前為止,還好我是測試資料…schema比較重要,至於正式資料的環境我覺得根本不能這樣搞,但為何commitlog會讓cassandra掛掉,無法啟動,我還是不知道,至少這次經驗,成功重啟了,我猜測原因可能是我對cassandra建立了很多blob field,根本原因,等我有空再來研究看看,這些log裡面到是在賣什麼藥,幸好我有把commitlog備份出來…
先繼續其他nosql的測試了
透過Docker安裝mysql + phpmyadmin + nginx + php7 + wordpress

透過Docker安裝mysql + phpmyadmin + nginx + php7 + wordpress

最近開始熟悉使用Docker建置環境,索性希望透過一個平台可以記錄自己曾經待過的坑。原本是存在Evernote,但我希望一半程度可以透過公開平台來展現自己的經歷,這是一部分私心,但記錄下來總是對於自己曾經參與過的一個重新組織與整理的機會。

話不多說…立刻來指令安裝,這次的虛擬環境:從Azure上租了一個新台幣$800元左右/月的小小vm,只有單核,0.75G,但只用ssh,沒有什麼影像處理、大量運算的需求,先硬著頭皮用下去了吧,至於Linux Ubuntu Server版本,好像是16版的,一開始若沒安裝Docker的,可以透過以下指令安裝Linux上的Docker

sudo apt-get install docker.io

這次安裝過程中需要3個Containner,一個放db,二個放web server

安裝Mariadb

MariaDB是Mysql的Opensoure分支,最大的好處就是免費授權。不過mysql是否會遇到什麼授權問題其實我也不是太清楚,日後有機會再來研究。
有許多官網公司出的Docker/Images其實都很方便,wiki都建的好好的,單一無腦啟用或是微調設定上,資訊已經很足夠用了。

sudo docker pull mariadb:latest

sudo docker run --name mariadb \
-p 3306:3306 \
-v /mnt/mariadb/data:/var/lib/mysql \
-v /mnt/mariadb/config:/etc/mysql/conf.d \
 -e MYSQL_ROOT_PASSWORD=123456 \
  -d mariadb

-p代表port的對外開放。通常用:隔開,前者是使用端的port,後者是容器內port,因此假如你起了一個80的Docker Containner,但你希望綁到你對外主機domain 8080 port的話,就設定成-p 8080:80, 也可以給一樣的

-v代表volumns,代表要從外部掛載資料卷,外部資料卷會直接同步containner的內容。因此當你指定的位置內檔案有異動,containner會即時讀取到最新的檔案。

-e代表環境變數,通常是dockerfile內定義,預先初始化可以帶入的參數。這邊的例子是預設定root的密碼

這邊我就不註記所有的參數用途了,有興趣請到docker從入門到實踐

安裝好DataBase,接著來順便安裝一下PhpMyadmin,這個是我從大學時期就很愛用的Mysql管理介面,最棒的是他有web版本,方便至上

sudo docker pull phpmyadmin/phpmyadmin:latest
sudo docker run -d -P –name mariadbMyAdmin –link mariadb:db phpmyadmin/phpmyadmin

-d代表在background執行

–link代表containner之間建立連線,透過:隔開,前者為來源containner名稱,後者為別名,其原理其實為在此Containner的環境的/etc/hosts下建立ip別名,透過這樣,才能讓設定檔保持一致,不用因為每次取得新的虛擬ip後,程式相關的檔案又要再度調整。

這樣設定以後,就可以直接連到該畫面了,預設的port是32768

http://xxx.xxx.xxx.xxx:32768

可以使用一開始對mariadb設定的ip進行

下載Wordpress

wget https://tw.wordpress.org/wordpress-4.7.4-zh_TW.tar.gz

複製到指定的Application目錄

tar -xzpvf wordpress-4.7.4-zh_TW.tar.gz

將該解壓縮後的檔案目錄,直接複製到一個Application的目錄,這個目錄下再切一個Wordpress目錄放置所有解壓的內容。

wordpress設定檔位置:

wordpress/we-config.php

// ** MySQL 設定 – 您可以從主機服務提供商獲取相關資訊。 ** //
/** WordPress 的資料庫名稱,請更改 “database_name_here” */
define(‘DB_NAME’, ‘wordpress’);

/** MySQL 資料庫使用者名稱,請更改 “username_here” */
define(‘DB_USER’, ‘wordpressuser’);

/** MySQL 資料庫密碼,請更改 “password_here” */
define(‘DB_PASSWORD’, ‘Abc123’);

/** MySQL 主機位址 */
define(‘DB_HOST’, ‘mariadb’);

/** 建立資料表時預設的文字編碼 */
define(‘DB_CHARSET’, ‘utf8’);

/** 資料庫對照型態。如果不確定請勿更改。 */
define(‘DB_COLLATE’, ‘utf8_unicode_ci’);

我這邊我先將db的路徑先直接改成我等下預計要建立link的名稱:mariadb,然後帳密先設定一下就好,另外我有設一個,認證金鑰,相關取得方式config都有說明,一併複製到config檔裡面就好

安裝nginx+php+php_mysql模組

特別說一下,這次使用的docker組合是已經有大神Docker連結,將php7+NGINX打包好,我將剛剛下載解壓的wordpress放到application目錄中,然後一樣透過-v配置到容器中,同時指定link到mariadb。(我自己試著裝php7,可以正常使用php,偏偏少了mysql的extension,卡了半天,先投降,日後再努力orz)

sudo docker run –name nginx -p 80:80 -v /home/paul/nginx-php/application:/data/www –link mariadb:mariadb -d skiychan/nginx-php7

建立起來以後,直接連到ip的80 port,記得vm的firewall要開,不然怎樣都連不進去

苦手坑談

曾經想自已分別安裝nginx與php-fpm模組。會這樣想純粹是因為好像有了Docker任何安裝問題都解決了,想裝什麼就裝什麼…所以我透過Docker-Compose.yml玩了一個上午,透過配置的方式,驅動Docker建置,但當環境愈來愈複雜時,包含DB跟App的分離,Php模組需要做調整設定,不同Containner之間要Link,還分為外部link跟內部link,事實上我苦腦於Compose的配置如何跟已存在的containner作link,這段也還沒研究出來,看來還有很長的路要走,但至少現在有一個開始,所以才有辦法發這篇文章呀XD