POCO M3 正式在台發表:6000mAh 超大電量、4800 萬像素 AI 三鏡頭主相機、立體聲揚聲器,售價只要 3,999 元起_網頁設計公司

網頁設計公司推薦不同的風格,搶佔消費者視覺第一線

透過選單樣式的調整、圖片的縮放比例、文字的放大及段落的排版對應來給使用者最佳的瀏覽體驗,所以不用擔心有手機版網站兩個後台的問題,而視覺效果也是透過我們前端設計師優秀的空間比例設計,不會因為畫面變大變小而影響到整體視覺的美感。

在 2018 年小米 POCO F1 在台灣市場推出後,以極致的性價比讓許多米粉相當期待,接下來 POCO 還會帶來哪些新機。隨著 2020 年 11 月 POCO 正式成為獨立品牌後,也終於在今(21)日稍早正式在台灣推出 POCO 品牌獨立後首款在台灣市場上市的智慧型手機「POCO M3」。

POCO M3 正式在台發表:6000mAh 超大電量、4800 萬像素 AI 三鏡頭主相機、立體聲揚聲器,售價只要 3,999 元起

台灣消費者許久未見到的 POCO 終於回來啦!今(21)日 POCO 終於推出品牌獨立後第一款產品「POCO M3」,狹帶著超越同價位的搭載 Qualcomm Snapdragon 662 行動平台、 6,000mAh 超大電量電池、 4800 萬像素 AI 三鏡頭主相機和立體聲揚聲器。外觀方面, POCO M3 在台灣推出「活力黃」、「冷酷藍」以及「動力黑」共三款配色。

 

開箱也幫大家準備好了,快來看看吧!(請點我)

螢幕方面, POCO M3 採用 6.53 吋 FHD+ (2340×1080)高解析度水滴全螢幕, 19.5:9 的螢幕比例與 90.34% 的高螢幕占比,提供更好的影音娛樂體驗。螢幕也通過德國萊因TÜV低藍光認證,即便長時間觀看手機也不易感到眼睛疲勞。螢幕採用康寧第三代大猩猩玻璃保護。

除了支援 AI 臉人臉解鎖,搭配結合側邊指紋辨識讓單手解鎖更加容易。

音效方面, POCO M3 內建立體聲雙喇叭和等效 0.76cc 的大音腔,擁有媲美旗艦機的高品質立體音效。

電量方面, POCO M3 配備 6,000mAh 高充電循環電池,擁有 24 天的超長待機時間;在聆聽音樂可使用連續約 8 天;觀看影片也能連續播放長達 17 小時,對於重度手機使用者更能滿足需求。 POCO M3 即便內建 6,000mAh 的超大電量電池,機身重量也控制在 198g 。
另外, POCO M3 支持最高18W快速充電,並標配 22.5W 快速充電器,提供高效的充電速度。此外, POCO M3 採用特製的高充電循環電池也更持久、耐用,高達 1,000 次電池循環充電次數,電池壽命在高溫環境相較其他手機提高 20% 。

相機部份, POCO M3 搭載 4800 萬像素 AI 三鏡頭主相機,包含 4800 萬像素 f/1.79 光圈主鏡頭、200 萬像素微距鏡頭以及 200 萬像素景深鏡頭的搭配,前置相機則為 800 萬像素自拍鏡頭。

※想知道購買電動車哪裡補助最多?台中電動車補助資訊懶人包彙整

節能減碳愛地球是景泰電動車的理念,是創立景泰電動車行的初衷,滿意態度更是服務客戶的最高品質,我們的成長來自於你的推薦。

銷售資訊

POCO M3 在台灣推出兩種規格選擇,售價分別為 4GB+64GB 版本建議售價 NT$3,999 、4GB+128GB 版本建議售價 NT$4,699 ,將於 1 月 22 日上午 10:00 起於 PChome24h 購物 POCO 品牌館獨家開賣。
首 2,000 名於 PChome24h 購物購買 POCO M3 並成功付款的消費者,將可獲贈「Redmi 行動電源 10000 標準版(價值 NT$345)」乙個(贈品數量有限,送完為止)。

POCO M3 直播專屬 NT$200 優惠碼:「YEAHPOCO」,可提前前往 PChome 24h 購物頁面完成登錄,使用名額有限、依完成結帳順序為準,用完為止(限量 500 名):點我前往

POCO Taiwan Facebook 粉絲專頁:點我前往
PChome2h 購物 POCO 品牌館:點我前往

開箱也幫大家準備好了,快來看看吧!(請點我)

POCO M3 開箱、評測|6000mAh 大電量超乎想像,極致性價比王者重返台灣市場

您也許會喜歡:

【推爆】終身$0月租 打電話只要1元/分

立達合法徵信社-讓您安心的選擇

南投搬家公司費用,距離,噸數怎麼算?達人教你簡易估價知識!

搬家費用:依消費者運送距離、搬運樓層、有無電梯、步行距離、特殊地形、超重物品等計價因素後,評估每車次單

Sony Mobile 中階新機 Xperia 10 III 高清晰渲染圖曝光:外型與前代相似、仍將保留3.5mm耳機孔_潭子電動車

※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

有別於一般網頁架設公司,除了模組化的架站軟體,我們的營業主軸還包含:資料庫程式開發、網站建置、網頁設計、電子商務專案開發、系統整合、APP設計建置、專業網路行銷。

去年五月初, Sony Mobile 在台灣推出 Xperia 10 系列中階手機 Xperia 10 II ,在稍早爆料大神 @OnLeaks 也在 Voice 分享了次世代 Xperia 10 系列新機的外觀面貌,若依照過去的命名規則新一代應會命名為 Xperia 10 III 。外觀方面, Xperia 10 III 大致上仍延續過往 Xperia 手機的設計風格,新機仍將保留 3.5mm 耳機插孔。

▲圖片來源:OnLeaks(Voice)

Sony Mobile 中階新機 Xperia 10 III 高清晰渲染圖曝光:外型與前代相似、仍將保留3.5mm耳機孔

稍早 OnLeaks(Steve Hemmerstoffer)在 Voice 分享了首批曝光的 Xperia 10 III(Xperia 10 Mark 3)外觀渲染圖,並透露 Sony Mobile 很可能在接下來幾週內發表這款新機。

根據 OnLeaks 的爆料內容, Xperia 10 III 的機身尺寸約為 154.4*68.4*8.3mm(機身厚度計算後鏡頭高度為 9.1mm),螢幕尺寸將延續前一代採用 6 吋 21:9 比例終極寬螢幕設計,雖然螢幕邊框似乎沒有明顯更窄,也未目前手機市場常見的挖孔螢幕創造更大的螢幕尺碼,但這相對保守的設計仍有許多喜愛它的族群。

▲圖片來源:OnLeaks(Voice)

音效方面,在 Xperia 10 III 預計仍保留雙前置立體聲揚聲器,延續這項設計也是可預期的決定。相機部份, Xperia 10 III 傳聞將配備三鏡頭主相機,分別為 1200 萬像素主鏡頭、800 萬像素望遠鏡頭和 800 萬像素超廣角鏡頭,前相機則搭載 800 萬像素自拍鏡頭,不過關於相機方面規格的升級尚未有更多詳細的資訊。

▲圖片來源:OnLeaks(Voice)

值得慶幸的是 Xperia 10 III 仍將保留 3.5mm 耳機插孔,對於選購中階手機的用戶來說還是相當重要的。

▲圖片來源:OnLeaks(Voice)

※Google地圖已可更新顯示潭子電動車充電站設置地點!!

日本、大陸,發現這些先進的國家已經早就讓電動車優先上路,而且先進國家空氣品質相當好,電動車節能減碳可以減少空污

消息來源:Steve H.McFly(Twitter/@OnLeaks)|OnLeaks(Voice)

延伸閱讀:
ROG Phone 5 真機動圖曝光!機身背面加入 ROG Vision 功能副螢幕,可顯示遊戲、充電、來電通知等訊息

您也許會喜歡:

【推爆】終身$0月租 打電話只要1元/分

立達合法徵信社-讓您安心的選擇

※超省錢租車方案

商務出差、學生出遊、旅遊渡假、臨時用車!GO 神州租賃有限公司!合法經營、合法連鎖、合法租賃小客車!

外媒公布最佳 5 大分類 CPU 處理器推薦名單(全能、遊戲、生產力等)_包裝設計

南投搬家公司費用需注意的眉眉角角,別等搬了再說!

上新台中搬家公司提供您一套專業有效率且人性化的辦公室搬遷、公司行號搬家及工廠遷廠的搬家服務

升級 CPU 處理器時,雖然價格越貴效能絕對是越好,但並不是每個人都預算無上限,而且需求也不一樣,有些人主要是為了玩遊戲、也有些人生產力居多,甚至是想要找各方面表現都不錯的處理器。為此,近日知名硬體外媒就公布目前最佳 CPU 處理器名單,從全能、遊戲、頂級、到生產力都有,應該可以提供你不錯參考。

最佳 5 大分類 CPU 處理器推薦名單

下方是外媒 TECHSPOT 公布的前 5 名最佳 CPU 處理器名單,另外他們也提醒,對於不急的人來說,其實可以先等等,因為三月 Intel 很可能會推出第 11 代 Rocket Lake 處理器,到時排名有可能會變動。

最佳全能 CPU 處理器

  • 獲選的是「Ryzen 5 3600 或 Core i5-10400F」

TECHSPOT 表示,Ryzen 5 3600 會是最佳選擇,但如果你不喜歡 AMD CPU,則可以考慮 i5-10400F,這兩顆的品質與價格都非常不錯,因此可以大幅降低組裝成本。除此之外,幾個月前 Ryzen 5 3600  還是 Amazon 銷售排名第一,至今仍然相當暢銷。

最佳遊戲 CPU 處理器

  • 獲選的是「i9-10900K、10700K 或 Ryzen 9 5900X」

對於追求最佳遊戲效能 CPU 的人,則可以把範圍縮小到 Ryzen 7 5800X、Ryzen 9 5900X 與 5950X,或Core i7-10700K 與 Core i9-10900K,這幾顆的遊戲效能都差不多,不過多數遊戲都不需要超過 8 核心,因此最有價值的選擇會是 Ryzen 7 5800X 或 i7-10700K。

另外有些人可能會想說,Ryzen 7 5800X 並沒有獲選,為什麼他們推薦?這是因為 Ryzen 9 5900X 就技術來說更有價值,但如果只是為了玩遊戲,選 5900X 似乎有點浪費錢。

最佳頂級桌上型 CPU 處理器

  • 獲選的是「AMD Ryzen Threadripper 3990X」

這不讓人意外,TECHSPOT 稱 AMD Ryzen Threadripper 3990X 是一個野獸,高達 64 核心、128 執行緒的規格,效能不容懷疑,但價格當然也非常不便宜。

如果你覺得這顆太貴,Threadripper 3970X 或 3960X 也是不錯,近一年的時間他們都用 3960X 處理器當作主要遊戲、影片編輯的處理器,體驗一直都很棒。

※產品缺大量曝光嗎?你需要的是一流包裝設計!

窩窩觸角包含自媒體、自有平台及其他國家營銷業務等,多角化經營並具有國際觀的永續理念。

最佳生產力 CPU 處理器

  • 獲選的是「AMD Ryzen 9 5900X 或 5950X」

想要有最佳生產力的用戶,Ryzen 9 5900X 或 5950X 絕對是最佳選擇,價格分別為 550 美元與 800 美元,不過長期都處於缺貨狀態,因此無法等待的人,替代方案可改上一代的 3900X / 3950X 或 i9-10900K。

最佳預算內 CPU 處理器

  • 獲選的是「Intel i3-10100」

過去 TECHSPOT  都推薦 Ryzen 3 3300X,但自從 2020 年中之後就買不到,都沒補貨,因此才改推 Intel 這顆 i3-10100,遊戲效能跟比較貴的 Ryzen 5 1600 AF 相當,而且長期都能買到,這點比 AMD 出色。

另外有多一點預算,想要有效能不差內顯的處理器,Ryzen 5 3400G 仍然是最佳選擇。

結論

從以上名單可以明顯看出,就生產力來說,TECHSPOT 大多都推薦 AMD 處理器,畢竟核心與執行緒數量較多,但遊戲部分就 Intel 稍微強一點。所有推薦處理器 TECHSPOT 都有進行實測報告,有興趣閱讀的人,可以點我至 TECHSPOT 網站查看。

資料來源:TECHSPOT

國外零售商洩漏 Intel 第 11 代 Rocket Lake-S 處理器的售價,i9-11900K 價格比上一代便宜一些

您也許會喜歡:

【推爆】終身$0月租 打電話只要1元/分

立達合法徵信社-讓您安心的選擇

※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

網動廣告出品的網頁設計,採用精簡與質感的CSS語法,提升企業的專業形象與簡約舒適的瀏覽體驗,讓瀏覽者第一眼就愛上她。

微軟 Surface Hub 2S 在台推出,滿足視訊會議、團隊協作與商務需求_台中搬家

台中搬家遵守搬運三大原則,讓您的家具不再被破壞!

台中搬家公司推薦超過30年經驗,首選台中大展搬家

自從 COVID-19 疫情爆發以來,遠距工作、混合式辦公模式已經是全球企業商務的新工作型態,為了因應延伸出來更多與過去工作型態不一樣的需求,微軟在今日(1/21)的發表會中,正式宣佈在台灣推出 Surface Hub 2S 這款將視訊會議與各種商務用途集於一身的新品。

微軟 Surface Hub 2S 在台推出,滿足視訊會議、團隊協作與商務需求

Surface Hub 2S 整合了傳統會議室中的投影設備、會議是白板與視訊通訊解決方案等茸硬體配置,以提供團隊成員線上與實體的參與度,幫助企業解決在疫情期間遠距溝通與團隊協作大幅提升的困難,維持高生產力。

Surface Hub 2S 共推出兩種版本,分別為 50 吋與 85 吋。搭載 4K+ 解析度觸控顯示器與 4K 鏡頭,擁有 90 度的視角,在中型會議室裏面可無死角地呈現會議現場,讓遠端連線的對象可完整而清晰地看見會議中的與會人員。鏡頭還可利用配置在螢幕上、左、右三側的 USB-C 更換裝設位置,內建遠場麥克風可直接對會議現場進行收音,範圍可達 5 – 6 公尺,並且透過立體聲喇叭提供用戶最加聲音體驗,無須另外安裝收音麥克風等設備。網路連線部分可支援有線網路線與 WiFi 網路,讓會議隨時保時連線不中斷。另外,為了提供更靈活的協作,Surface Hub 2S 配備有 Surface Hub 2 手寫筆,在會議中讓你發揮最佳表現。

在螢幕後方即為主機裝置,運行完整如筆電般的 Windows 10 的體驗,讓用戶可以更直覺地操作,讓使用者可流暢地在筆電與 Surface Hub 2S 之間切換,根據官方人員的介紹,位於螢幕後方一體式的主機部分除配有豐富的連接埠外採可抽取式設計,未來用戶可以依照需求升級系統內部配備,因應科技推進的腳步讓生產力蒸蒸日上。

Surface Hub 2S 50 吋版本售價訂為新台幣 298,788 元,即日起開始銷售,85 吋款則即日起同步開放預購。

台中搬家公司費用怎麼算?

擁有20年純熟搬遷經驗,提供免費估價且流程透明更是5星評價的搬家公司

同場加映:Surface Pro 7+ 商務版同步上市

近日最新推出的 Surface Pro 7+ 商務版也宣布於今日在台上市,共有 WiFi 版與 LTE Advances 兩種版本。採用了最新的第 11 代Intel Core 處理器,處理效能提升 2.1 倍,續航力最長可達 15 小時,為人們提供了所需的效能,讓他們能夠隨時隨地展開工作。此外, Surface Pro 7+ 商務版配有 USB-A 和 USB-C 兩個連接埠,可外接顯示器與所需的周邊設備打造完整的工作體驗。在 Surface Pro 7+ 商務版上搭載了支援 1080p 高畫質的前置和後置鏡頭以及 Dolby Atmos 喇叭和雙重遠場麥克風,讓大家可以互相看見、聽見。

Surface Pro 7+ 商務版採用了更為輕盈、永續性的商業包裝。此包裝比上一代輕了 23%,由 99% 的天然纖維材料製成,其中 64% 採用了可回收材料。此外,首次提供了從開機就有的 Windows 增強硬體安全功能,從初期部署到整個裝置的生命週期,客戶都可以透過雲端服務來對 Surface 裝置進行管理和更新,無需讓 IT 人員親自接觸裝置,這有助於保護身份資訊,並防禦惡意驅動程式和供應鏈的攻擊。


Surface Pro 7+ 商務版還搭載了可拆卸式固態硬碟來保存資料,以滿足企業和教育組織的安全和隱私需求,此功能與微軟 BitLocker 保護功能相互結合,使客戶可以在裝置發生問題時尚可儲存資料。這款新機售價訂為 29,088 元起,即日起可洽詢經銷購買。

您也許會喜歡:

【推爆】終身$0月租 打電話只要1元/分

立達合法徵信社-讓您安心的選擇

台中搬家遵守搬運三大原則,讓您的家具不再被破壞!

台中搬家公司推薦超過30年經驗,首選台中大展搬家

2020~2021 手機折舊報告結果顯示,iPhone 比 Android 手機保值非常多_台中搬家公司

台中搬家公司教你幾個打包小技巧,輕鬆整理裝箱!

還在煩惱搬家費用要多少哪?台中大展搬家線上試算搬家費用,從此不再擔心「物品怎麼計費」、「多少車才能裝完」

所有智慧型手機當中,iPhone 最保值這是不爭的事實,不過對於拿 Android 手機的人來說,一定還是想知道隨著規格越來越好,有沒有可能變得更保值一點。最近國外 bankmycell 網站就公布 2020~2021 年最新手機折舊報告,結果顯示根據去年一樣,Android 的貶值速度依舊是 iPhone 兩倍,即便是 Samsung 旗艦機 S20 系列也一樣,不到 9 個月就損失了 –34.73% 的價值。

2020~2021 手機折舊報告

bankmycell 是國外一間回收二手科技產品的網站,這次 2020~2021 年折舊報告統計的手機品牌有「Samsung、Google、LG、MOTOROLA 與 Apple」,他們從 2020 年 1 月 1 日至 12 月 31 日,每小時紀錄 310 個熱門手機的回收價格,進而算出保值趨勢。

結果顯示,以 700 美元以上的 iOS 與 Android 設備來說,一年之內 iPhone 平均折舊率為 –16.70%,Android 來到 –33.62%。如果單純看 iPhone 11 與 Samsung Galaxy S20,iPhone 11 一年下來大約損失 –12.84%,Galaxy S20 僅在 9 個月內就折舊 –34.73%,差距非常大。

其他 Android 手機也差不多,Google Pixel 4 一年折舊率就來到 –37.35%,MOTOROLA、LG、HTC 都有 -40% 以上。

iPhone 11 系列中,iPhone 11 Pro 折舊率最高,一年損失了 –21.31%。

預算內的 Android 手機(350 美元以下)折舊率更高,一年平均折舊高達 –52.61%,意味著不是買旗艦 Android 手機的人,基本上二手市場幾乎沒什麼價值。

下圖是各品牌的 2020~2021 平均折舊率,Apple 最低:

拉遠來看,iPhone 使用長達 4 年折舊率雖然快 –70%,但還是比 Android 好很多:

※推薦台中搬家公司優質服務,可到府估價

台中搬鋼琴,台中金庫搬運,中部廢棄物處理,南投縣搬家公司,好幫手搬家,西屯區搬家

iPhone 系列的折舊率統計表:

Samsung 手機:

Google Pixel 系列:

這份報告還有不少折舊率的統計數據,有興趣詳讀的朋友,可以點我跳轉至 bankmycell 網站。

資料來源:bankmycell

據報 iOS 15 將一次捨棄 3 款 iPhone 機型支援,iPadOS 15 也傳出支援列表了

您也許會喜歡:

【推爆】終身$0月租 打電話只要1元/分

立達合法徵信社-讓您安心的選擇

台中搬家公司教你幾個打包小技巧,輕鬆整理裝箱!

還在煩惱搬家費用要多少哪?台中大展搬家線上試算搬家費用,從此不再擔心「物品怎麼計費」、「多少車才能裝完」

最新 iOS 框架整體梳理(一),Audio Unit 基礎,QuartzCore_網頁設計公司

※如何讓商品強力曝光呢? 網頁設計公司幫您建置最吸引人的網站,提高曝光率!

以設計的實用美學觀點,規劃出舒適、美觀的視覺畫面,有效提昇使用者的心理期待,營造出輕鬆、愉悅的網站瀏覽體驗。

前言

 

      這段話其實是我差不多寫完文章之後再回過頭來寫的,原本在寫文章之前想寫一下寫的初衷的,但當我寫完之後感覺初衷沒有收穫更真切一些。其實到這篇為止總結出來的也就三十多個,有些是比較新的框架,有些是我們開發者一直在使用接觸的框架,我感覺收穫還是很多。 很多東西你要不是一個一直在了解跟進WWDC內容的開發者可能時間一長你就不知道最近都出了些什麼新的框架,但這樣你走一遍之後你就會把許多遺漏掉的東西找回來,我的想法一直都沒有變,作為一個移動端的開發者,不僅要“向下深挖” ,“向上學習”也是最基本的條件,就算你不清楚每一個框架具體的使用細節, 至少你一定要知道框架可以用來干什麼!下面總結出來的框架有些也需要我自己去學習,果然欠了的遲早是要還的

    

Part – 1

 

      下面的框架我們按照我們的圖一個一個的說:

 

                                            

 

1、Accelerate: 一個大規模的數學計算和圖像計算的框架,它的作用和使用推薦下面兩篇文章

    Introduction to the Accelerate Framework in Swift

    官方文檔 Accelerate

2、Accounts: 它是iOS原生提供的一套賬戶管理框架,其支持Facebook,新浪微博,騰訊微博,Twitter和領英賬戶管理的功能。需要注意,在iOS 11 及以上系統中,將此功能已經刪除,因此Accounts.framework實際上已經沒有太大的意義,其只在iOS 11之前的系統上可用!所以這裏我們就不在仔細說它了,簡單的提一下就好。

3、AddressBook、AddressBookUI   通訊錄相關的框架,我們獲取聯繫人通訊錄先關的都是咋這兩個框架裏面。 

     AddressBook、AddressBookUI 使用

     AddressBook 官方文檔

     AddressBookUI 官方文檔

4、AdSupport

     AdSupport 從字面意思上理解是用來進行廣告支持,這個框架十分簡單,裏面只有一個類,類中只有一個方法和兩個屬性。

     AdSupport 的唯一用途是用來獲取設備唯一的一個廣告標識符。可以使用此標識符用來標記用戶是否來源於某個廣告推廣,設備重啟,重裝應用程序都不會使廣告標識符修改。

5、ARKit

     ARKit 這個我就不用多說了,它是做什麼的相信每個iOS開發者度清楚,它具體的使用以及學習大家可以上網去搜索,一大把資料的,也正是因為龐大,官網的說明反而很簡單的幾句話。

6、AssetsLibrary

    The Assets Library framework is deprecated as of iOS 9.0. Instead, use the PhotoKit framework, which in iOS 8.0 and later provides more features and better performance for working with a user’s photo library. 

    上面這句話就總結了這可框架了,具體的內容就不在介紹了,關注的點應該轉移到 PhotoKit 框架!

7、AudioToolbox、AudioUnit

    AudioToolbox 是專門處理聲音的一個框架,AudioToolbox 這個庫是C的接口,偏向於底層,用於在線流媒體音樂的播放。AudioUnit 其實是最底層的,我們在使用的像 AVFoundation,Media Player ,AudioToolbox 等都是基於AudioUnit進行的封裝。

 

      具體的可以參考這篇文章:Audio Unit 基礎

8、AuthenticationServices: 一個讓用戶輕鬆登錄應用程序和服務的框架,我們在iOS13基礎上添加的蘋果登錄就是出自這個框架。 在官方文檔介紹它的功能點時候是這麼說的:

    1. 允許用戶從應用程序的登錄流中查找存儲的密碼。

    2. 在應用程序和web瀏覽器之間共享數據,使用OAuth等技術來利用應用程序中現有的基於web的登錄。

    3. 在企業應用程序中創建單點登錄(SSO)體驗。

    4. 簡單明了的註冊和登錄流程減少了用戶記住密碼

    官方文檔 AuthenticationServices

9、AVFoundation  AVKit 

     AVFoundation 這個框架我在以前做過一個專題專門有說過它,這裏也就不再多做介紹了。需要的可以翻一下我以前的博客。 AVKit框架基於AVFoundation框架,提供了一個用於播放視頻內容的高級界面,創建用於媒體播放的視圖級服務。主要包含兩個類:AVPictureInPictureController 、 AVPlayViewController  兩個類。

     關於AVKit 這裡有一個大概的介紹:  AVKit框架

      AVKit的官方文檔

10、BackgroundTasks         這個框架相信單從字面意思就能大致了解到它是作什麼的,這裏我們就不在具體的闡述它裏面的內容,可以看這兩文章對它有一個具體的了解  iOS 後台任務 BackgroundTask – 簡書

11、BusinessChat

      BusinessChat是iOS11.3后引入的新框架,這個框架配合iMessage應用將商家與用戶更加緊密的結合起來,並且為商家提供了另外一種非常方便的客服系統。關於它的資料我找到的還真的不是特別多,但官方對這一塊介紹的比較詳細。

      iOS開發之BusinessChat框架使用 這篇文章有介紹它的一個大致的使用 

      官方的介紹

12、CallKit

      它是一個很有意思的框架,它是蘋果 iOS 10 新發布的一個的框架。CallKit 框架能讓我們把 自己APP語音或視訊電話的UI 界面整合在 iPhone 原生的電話 App 中。下面是官方文檔對它的一個概述:

      CallKit允許您將您的呼叫服務與系統上其他與呼叫相關的應用程序集成在一起。CallKit提供調用接口,您可以使用VoIP服務處理後端通信。對於呼入和呼出的電話,CallKit显示與電話應用程序相同的界面,使您的應用程序具有更本機的外觀和感覺。CallKit會對系統級的行為做出適當的響應,比如不進行干擾。除了處理呼叫之外,您還可以提供一個呼叫目錄應用程序擴展,以提供來電显示信息和與您的服務相關的被阻止的號碼列表。

      但在大陸地區CallKit是受限制的,具體的信息可以上網了解。下面的這些文章內容能幫助我們了解這個框架:

      iOS10–CallKit的簡單應用

      iOS Call Kit for VOIP

      官方文檔

13、CarPlay

      CarPlay 是一個手機車機互聯繫統,可以把iPhone上的地圖、音樂、電話等功能映射到車載屏幕上使用。這句話概括了這個框架是用來干什麼的。

      iOS應用接入CarPlay初探

14、CFNetwork

      CFNetwork 這個框架還是有必要了解一下的,我們經常使用到的API的請求基本都是NSURL的,CFNetwork是一個比較底層的框架,C語言編寫的,NSURL也肯定就沒有CFNetwork那麼定製性更好了,官方文檔對它的描述是 訪問網絡服務並處理網絡配置中的更改。基於網絡協議的抽象來簡化任務,例如使用BSD套接字、管理HTTP和FTP服務器以及管理Bonjour服務。我的建議是要是對網絡處理這塊有想更好的一個了解的話有必要看安這個框架的使用以及它裏面具體的東西,畢竟它很接近 Socket 。

       CFNetwork的介紹和使用  

       官方文檔

15、ClassKit 

      這也是一個新的框架,在11.4中加入的,也很有趣,但關於它的資料我找到的也很少,但通過官方的介紹你也能了解到一些信息,官方介紹的也比較詳細。

      官方文檔

16、CloudKit

      這個框架我們首先能聯想到肯定是 iCloud了,的確這個框架也是專門用來給它服務的,每當我們看到一個新框架的時候我們腦袋裡想的肯定是這框架是用來干什麼的,具體我們該怎樣使用它。

      iOS CloudKit的使用  這篇文章也就了兩個問題,它是什麼,它是用來幹嘛的。

※綠能、環保無空污,成為電動車最新代名詞,目前市場使用率逐漸普及化

台中景泰電動車行只是一個單純的理由,將來台灣的環境,出門可以自由放心的深呼吸,讓空氣回歸自然的乾淨,減少污染,留給我們下一代有好品質無空污的優質環境

17、Combine

      Combine是Apple在2019年WWDC上推出的一個新框架。該框架提供了一個聲明性的Swift API,用於隨時間處理值。這些值可以表示多種異步事件

      Swift Combine

      Combine框架詳細解析

18、Contacts  ContactsUI

      這兩個框架我相信很多人還是比較熟悉了,以前的很多應用都喜歡獲取用戶的通訊錄,不過現在的APP我感覺在慢慢減少這方面的權限獲取,也可能和人們的生活方式有關吧,慢慢的很多人聯繫也就不再考通訊錄的手機號碼,這兩個框架我們也就不再細緻的介紹了。

19、CoreAudio  CoreAudioKit  CoreAudioTypes

      Core Audio 提供了数字音頻服務為iOS與OS X, 它提供了一系列框架去處理音頻。Core Audio 中也包含我們最常用的前面也有說過的 AudioToolbox和AudioUnit 框架。要具體的說它裏面的內容我們也能寫一本書了。想要大致的了解它和它的使用,下面的文章能做到。

      Core Audio音頻基礎概述

      官方文檔 Core Audio

      官方文檔 Core Audio Types

20、CoreBluetooth

      這個框架也是比較重要的一個框架,在我們的開發中也是經常使用到的一個框架 藍牙

      iOS中的藍牙 CoreBluetooth藍牙系列

      官方文檔

21、CoreData

      這個我就一句話帶過,他就蘋果提供的數據庫,CoreData我以前也有寫過關於它的文章,有需要的也可以往前面翻翻。

22、CoreFoundation

      說到 CoreFoundation 我們就不可避免的的說活 Foundation ,這個框架和Foundation有什麼區別和聯繫,他們之間使用的時候我們需要注意什麼,他們之間的橋接等等這些都是我們需要注意的東西。具體的我們就不在說了,下面的這文章能幫助到我們。這個框架我們還是有必要進行一個具體的了解的!

      提高性能之——Core Foundation

      官方文檔

23、CoreGraphices

      這個按照字面我們能把它接成“圖形核心”,其實它和我們常看到的 QuartzCore、Quartz2D等會很容易混淆,我以前在說Quartz2D的時候有提過關於他們之間的一些基本的區分以及關係,QuartzCore 這裏可以看,然後關於CoreGraphices具體的內容的確也是比較的龐大,需要我們花時間去弄清除。然後我們在這裏也沒法具體的再談了,還是下面的文章幫助我們理解。

      iOS圖像處理之Core Graphics和OpenGL ES小析

      iOS繪圖框架CoreGraphics分析

      CoreGraphic框架解析(一)—— 基本概覽 這篇後續還有具體的使用,這裏就不一一列表,可以通過它找到的。

24、CoreHaptics  [‘hæptiks]

      CoreHaptics 是 iOS13 中的新API,同時只有 iPhone 8 及之後的機型支持。CoreHaptics 提供了更加細膩,可控的震動表達方式,可以令APP產生一種全新的體驗。下面是一些簡單的文章和官方文檔。

      CoreHaptics

      官方文檔

25、CoreImage

      CoreImage 框架是iOS處理圖像的框架,主要用處可以給圖片添加濾鏡效果和圖像識別功能(人臉、條形碼等等)。

      CoreImage和GPUImage的結合使用  這篇文章是一個很好的使用介紹

      Core Image 官方文檔

26、CoreLocation   

      在移動互聯網時代,移動app能解決用戶的很多生活瑣事,比如導航:去任意陌生的地方 周邊:找餐館、找酒店、找銀行、找電影院 。在上述應用中,都用到了地圖和定位功能,在iOS開發中,要想加入這2大功能,必須基於2個框架進行開發 MapKit :用於地圖展示  CoreLocation :用於地理定位。所以CoreLocation和MapKit也是經常在一起使用的,也就是定位和地圖。

       關於CoreLocation定位服務的簡單使用         官方文檔

27、CoreMedia

      它是屬於比較底層的一套音視頻C語言接口,提供對媒體文件操作的底層接口。它的具體的使用我們基礎到的比較多的是基於它的AVFoundation。

      官方文檔

28、CoreMIDI  這個我基本上是不想說了的,因為好像我們基本上都沒什麼使用,而且關於它的資料特別的少,MIDI是一套樂器数字接口,這個框架也是用來連接設備的 像MIDI 鍵盤,有興趣的自己再去了解吧。

29、CoreML

       CoreML 是一個機器學習框架,藉助 Core ML,您可以將已訓練好的機器學習模型,集成到自己的應用當中。

       Core ML介紹 (Apple機器學習框架)

       官方文檔

30、CoreMotion

      Core Motion 可以讓開發者從各個內置傳感器那裡獲取未經修改的傳感數據,並觀測或響應設備各種運動和角度變化。通過這些傳感器可以獲取加速度值,陀螺儀值等。

      iOS CoreMotion的使用

      官方文檔

31、CoreNFC

      NFC(近場通信)就是當兩台硬件設備相距4cm以內時可以實現互相通信 

      iOS11中使用CoreNFC

      官方文檔

32、CoreServices

      Core Services層為所有的應用程序提供基礎系統服務。可能應用程序並不直接使用這些服務,但它們是系統很多部分賴以建構的基礎。這麼去理解的時候就發現其實他是一個很少我們具體需要我們使用的框架,但真的是一個無處不在的框架。

      官方文檔

33、CoreSpotLight  [ˈspɑːtlaɪt]

      這也是一個很有趣的框架,它可以讓你 App 中的內容在 Spolite 中搜索到, 並且將相關的搜索結果展現給用戶, 並且允許用戶和搜索的結果進行交互. 當用戶選擇了其中一個搜索的結果后, 不但可以自動的打開你的應用程序, 同時還可以跳轉到指定的頁面來查看詳細的內容。

      如何使用 Core Spotlight

      官方文檔

 

 

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

※自行創業缺乏曝光? 網頁設計幫您第一時間規劃公司的形象門面

網站的第一印象網頁設計,決定了客戶是否繼續瀏覽的意願。台北網動廣告製作的RWD網頁設計,採用精簡與質感的CSS語法,提升企業的專業形象與簡約舒適的瀏覽體驗,讓瀏覽者第一眼就愛上它。

[統計信息系列7] Oracle 11g的自動統計信息收集_如何寫文案

※教你寫出一流的銷售文案?

銷售文案是什麼?A文案是廣告用的文字。舉凡任何宣傳、行銷、販賣商品時所用到的文字都是文案。在網路時代,文案成為行銷中最重要的宣傳方式,好的文案可節省大量宣傳資源,達成行銷目的。

 

(一)統計信息收集概述
在Oracle 11g中,默認有3個自動任務,分別是:自動統計信息收集、SQL調優顧問、段空間調整顧問,查看方法如下:

SQL> SELECT CLIENT_NAME,TASK_NAME,OPERATION_NAME,STATUS FROM dba_autotask_task;

CLIENT_NAME                      TASK_NAME                  OPERATION_NAME             STATUS
-------------------------------- -------------------------- -------------------------- --------
 sql tuning advisor               AUTO_SQL_TUNING_PROG       automatic sql tuning task  ENABLED
 auto optimizer stats collection gather_stats_prog auto optimizer stats job ENABLED
 auto space advisor               auto_space_advisor_prog    auto space advisor job     ENABLED

灰色背景行代表自動統計信息收集,使用的任務為gather_stats_prog。gather_stats_prog調用了DBMS_STATS.GATHER_DATABASE_STATS_JOB_PROC存儲過程

SQL> SELECT PROGRAM_NAME,PROGRAM_TYPE,PROGRAM_ACTION FROM dba_scheduler_programs  WHERE PROGRAM_NAME = 'GATHER_STATS_PROG';

PROGRAM_NAME                   PROGRAM_TYPE      PROGRAM_ACTION
------------------------------ ----------------  --------------------------------------------------------------------------------
 GATHER_STATS_PROG              STORED_PROCEDURE  dbms_stats.gather_database_stats_job_proc

在Oracle 11g中,一共配置了7個自動維護窗口,每天一個窗口

SQL> SELECT WINDOW_NAME,AUTOTASK_STATUS FROM dba_autotask_window_clients  ;

WINDOW_NAME                    AUTOTASK_STATUS
------------------------------ ---------------
MONDAY_WINDOW                  ENABLED
TUESDAY_WINDOW                 ENABLED
WEDNESDAY_WINDOW               ENABLED
THURSDAY_WINDOW                ENABLED
FRIDAY_WINDOW                  ENABLED
SATURDAY_WINDOW                ENABLED
SUNDAY_WINDOW                  ENABLED

每個窗口的運行時間如下:

SQL> SELECT a.WINDOW_NAME,a.REPEAT_INTERVAL,a.duration FROM dba_scheduler_windows a WHERE ENABLED = 'TRUE';

WINDOW_NAME         REPEAT_INTERVAL                                          DURATION         
 ------------------  -------------------------------------------------------  -----------------
 MONDAY_WINDOW       freq=daily;byday=MON;byhour=22;byminute=0; bysecond=0    +000 04:00:00
 TUESDAY_WINDOW      freq=daily;byday=TUE;byhour=22;byminute=0; bysecond=0    +000 04:00:00
 WEDNESDAY_WINDOW    freq=daily;byday=WED;byhour=22;byminute=0; bysecond=0    +000 04:00:00
 THURSDAY_WINDOW     freq=daily;byday=THU;byhour=22;byminute=0; bysecond=0    +000 04:00:00
 FRIDAY_WINDOW       freq=daily;byday=FRI;byhour=22;byminute=0; bysecond=0    +000 04:00:00
 SATURDAY_WINDOW     freq=daily;byday=SAT;byhour=6;byminute=0; bysecond=0     +000 20:00:00
 SUNDAY_WINDOW       freq=daily;byday=SUN;byhour=6;byminute=0; bysecond=0     +000 20:00:00

可以看到,從周一到周五,窗口運行時間為晚上22點開始,最多運行4個小時,周六周日從早上6點開始,最多運行20個小時。

在窗口任務啟動時,自動任務GATHER_STATS_PROG每次運行時會先生成ORA$AT_OS_OPT_xxx的作業,然後再執行這個作業。

SQL> SELECT a.JOB_NAME,a.ACTUAL_START_DATE,a.RUN_DURATION,a.STATUS
   2  FROM   dba_scheduler_job_run_details a
   3  WHERE  a.JOB_NAME LIKE 'ORA$AT_OS_OPT%';

JOB_NAME                ACTUAL_START_DATE                    RUN_DURATION        STATUS
---------------------   ----------------------------------   ----------------    ------------
 ORA$AT_OS_OPT_SY_1      25-MAY-20 10.00.02.042065 PM PRC     +000 00:01:24       SUCCEEDED
 ORA$AT_OS_OPT_SY_21     30-MAY-20 09.25.57.005710 AM PRC     +000 00:00:37       SUCCEEDED
 ORA$AT_OS_OPT_SY_41     30-MAY-20 01.26.30.842460 PM PRC     +000 00:00:43       SUCCEEDED
 ORA$AT_OS_OPT_SY_61     30-MAY-20 05.26.41.292037 PM PRC     +000 00:00:31       SUCCEEDED

總結:Oracle 11g自動統計信息收集是通過每天執行自動任務gather_stats_prog來實現的,它每天會自動生成ORA$AT_OS_OPT_xxx的作業,然後執行作業來收集統計信息,其本質也是執行了DBMS_STATS.GATHER_DATABASE_STATS_JOB_PROC存儲過程。

 

(二)統計信息收集策略
每次自動收集統計信息,並不是對所有表都進行收集,Oracle只對那些已經統計信息失效的對象進行收集,那麼Oracle如何判斷哪些對象的統計信息失效了呢?
在Oracle 11g中,如果參數STATISTICS_LEVEL的值為TYPICAL(默認)或者ALL,則DBA_TAB_MODIFICATIONS會記錄自上次自動統計信息收集完成之後對目標表的insert、update、delete的操作影響行數,並且還會記錄自從上次自動收集統計信息之後是否發生過truncate。需要注意的是DBA_TAB_MODIFICATIONS並不會實時更新,如果需要查看最新信息,可以手動更新該表的信息:

EXEC dbms_stats.flush_database_monitoring_info();

Oracle收集失效的統計信息的策略:自上次自動統計信息收集作業完成之後,如果DBA_TAB_MODIFICATIONS中記錄的INSERT+UPDATE+DELETE所影響的行記錄之和超過了DBA_TABLES中目標表記錄數的10%,或者是自上次統計信息收集完成之後目標表執行過truncate操作,那麼Oracle會認為目標表的統計信息已經失效,自動統計信息收集作業就會對目標表重新收集統計信息。

 

(三)禁用/啟用自動統計信息收集

在某些情況下,需要禁用自動統計信息的收集,可以使用以下3種方法,每種方法禁用範圍不同。

(3.1)使用以下方法可以禁用/啟用自動統計信息收集

SQL> EXEC dbms_auto_task_admin.disable(client_name=> 'auto optimizer stats collection',operation=> NULL,window_name=> NULL);

確認是否已經關閉:

SELECT WINDOW_NAME,AUTOTASK_STATUS,OPTIMIZER_STATS,SEGMENT_ADVISOR,SQL_TUNE_ADVISOR FROM DBA_AUTOTASK_WINDOW_CLIENTS

 

如果要啟用,可以使用如下方法重新打開自動統計信息收集:

SQL> EXEC dbms_auto_task_admin.enable(client_name=> 'auto optimizer stats collection',operation=> NULL,window_name=> NULL);

再次查詢,確認已經開啟:

 

※別再煩惱如何寫文案,掌握八大原則!

什麼是銷售文案服務?A就是幫你撰寫適合的廣告文案。當您需要販售商品、宣傳活動、建立個人品牌,撰寫廣告文案都是必須的工作。

(3.2)使用DBMS_SCHEDULER.DISABLE可以禁用維護窗口,從而禁用統計信息收集
例子1:禁掉周一的自動維護作業,包括統計信息收集、段顧問、sql調優顧問

EXEC dbms_scheduler.disable(NAME=> 'SYS.MONDAY_WINDOW',FORCE=> TRUE)

結果如下:

SELECT a.WINDOW_NAME,a.enabled FROM dba_scheduler_windows a where a.window_name = 'MONDAY_WINDOW';

啟用周一的自動維護作業,包括統計信息收集、段顧問、sql調優顧問

EXEC dbms_scheduler.enable(NAME=>'SYS.MONDAY_WINDOW');

(3.3)使用DBMS_SCHEDULER.DISABLE可以禁用維護窗口中的統計信息收集
例子2:禁掉周二的自動統計信息收集,段顧問、sql調優顧問保持開啟

EXEC dbms_auto_task_admin.disable(client_name=>'auto optimizer stats collection',operation=>NULL,window_name=>'TUESDAY_WINDOW');

查詢結果如下:

SELECT WINDOW_NAME,AUTOTASK_STATUS,OPTIMIZER_STATS,SEGMENT_ADVISOR,SQL_TUNE_ADVISOR FROM DBA_AUTOTASK_WINDOW_CLIENTS ;

再次開啟:

EXEC dbms_auto_task_admin.enable(client_name=>'auto optimizer stats collection',operation=>NULL,window_name=>'TUESDAY_WINDOW');

(四)調整自動統計信息收集
默認的統計信息如下,從周一到周五,窗口運行時間為晚上22點開始,最多運行4個小時,周六周日從早上6點開始,最多運行20個小時。

我們可以對其進行修改,修改的方法如下:
1.先禁用窗口:DBMS_SCHEDULER.DISABLE()
2.修改窗口的屬性:DBMS_SCHEDULER.SET_ATTRIBUTE()
3.啟用窗口:DBMS_SCHEDULER.ENABLE()

例子1:將周二的起始執行時間調整到23點

-- 1.禁用窗口
EXEC dbms_scheduler.disable(NAME=> 'SYS.MONDAY_WINDOW',FORCE=> TRUE)

-- 2.修改啟動時間為23點
EXEC dbms_scheduler.set_attribute(name => 'SYS.MONDAY_WINDOW',attribute => 'REPEAT_INTERVAL',value => 'freq=daily;byday=TUE;byhour=23;byminute=0; bysecond=0');

-- 3.啟用窗口
EXEC dbms_scheduler.enable(NAME=>'SYS.MONDAY_WINDOW');

查看結果:

 

(五)列的直方圖統計信息收集方式修改
在Oracle 11g中,Oracle默認直方圖的統計信息收集方式是AUTO,即Oracle會根據負載以及列的使用情況來確定對哪些列收集直方圖信息,為了更好地利用直方圖統計信息的同時保持執行計劃的穩定,推薦對直方圖統計信息的收集策略是對已經存在直方圖的列才收集直方圖統計信息,即以REPEAT方式收集。
查看默認的直方圖收集策略:

SQL> SELECT dbms_stats.get_prefs('METHOD_OPT') FROM dual;

DBMS_STATS.GET_PREFS('METHOD_O
--------------------------------------------------------------------------------
 FOR ALL COLUMNS SIZE AUTO

修改直方圖策略:

SQL> EXEC dbms_stats.set_global_prefs(pname => 'METHOD_OPT',pvalue => 'FOR ALL COLUMNS SIZE REPEAT');
 PL/SQL procedure successfully completed

查看修改后的默認的直方圖收集策略:

SQL> SELECT dbms_stats.get_prefs('METHOD_OPT') FROM dual;

DBMS_STATS.GET_PREFS('METHOD_O
--------------------------------------------------------------------------------
 FOR ALL COLUMNS SIZE REPEAT

(六)統計信息閾值修改
在Oracle 11g中,默認統計信息的收集閾值為10%,即10%的行數據發生變化或者執行了truncate,才會再次收集統計信息。我們可以使用下面的方法針對單個表修改閾值。

例子1:修改test01表的統計信息收集閾值為5%。

查看初始的閾值:

SQL> SELECT dbms_stats.get_prefs(pname => 'STALE_PERCENT',ownname => 'LIJIAMAN',tabname => 'TEST01') FROM dual;

DBMS_STATS.GET_PREFS(PNAME=>'S
 --------------------------------------------------------------------------------
 10

修改閾值為5:

SQL> EXEC dbms_stats.set_table_prefs(ownname => 'LIJIAMAN',tabname => 'TEST01',pname   => 'STALE_PERCENT',pvalue  => 5);
 PL/SQL procedure successfully completed

確認修改后的閾值:

SQL> SELECT dbms_stats.get_prefs(pname => 'STALE_PERCENT',ownname => 'LIJIAMAN',tabname => 'TEST01') FROM dual;

DBMS_STATS.GET_PREFS(PNAME=>'S
--------------------------------------------------------------------------------
5

需要注意的是:當閾值為0時,不管數據如何變化,每天都會自動收集統計信息。

【完】

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

※廣告預算用在刀口上,台北網頁設計公司幫您達到更多曝光效益

擁有後台管理系統的網站,將擁有強大的資料管理與更新功能,幫助您隨時新增網站的內容並節省網站開發的成本。

一篇文章帶你吃透 Docker 原理_網頁設計公司

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

當全世界的人們隨著網路時代而改變向上時您還停留在『網站美醜不重要』的舊有思維嗎?機會是留給努力改變現況的人們,別再浪費一分一秒可以接觸商機的寶貴時間!

容器的實現原理

從本質上,容器其實就是一種沙盒技術。就好像把應用隔離在一個盒子內,使其運行。因為有了盒子邊界的存在,應用於應用之間不會相互干擾。並且像集裝箱一樣,拿來就走,隨處運行。其實這就是 PaaS 的理想狀態。

實現容器的核心,就是要生成限制應用運行時的邊界。我們知道,編譯后的可執行代碼加上數據,叫做程序。而把程序運行起來后,就變成了進程,也就是所謂的應用。如果能在應用啟動時,給其加上一個邊界,這樣不就能實現期待的沙盒嗎?

在 Linux 中,實現容器的邊界,主要有兩種技術 CgroupsNamespace. Cgroups 用於對運行的容器進行資源的限制,Namespace 則會將容器隔離起來,實現邊界。

這樣看來,容器只是一種被限制的了特殊進程而已。

容器的隔離:Namespace

在介紹 Namespace 前,先看一個實驗:

# 使用 python3.6.8 的官方鏡像,建立了一個運行 django 的環境
# 進入該容器后,使用 ps 命令,查看運行的進程
root@8729260f784a:/src# ps -A
  PID TTY          TIME CMD
    1 ?        00:01:22 gunicorn
   22 ?        00:01:20 gunicorn
   23 ?        00:01:24 gunicorn
   25 ?        00:01:30 gunicorn
   27 ?        00:01:16 gunicorn
   41 pts/0    00:00:00 bash
   55 pts/0    00:00:00 ps

可以看到,容器內 PID =1 的進程,是 gunicorn 啟動的 django 應用。熟悉 Linux 的同學都知道,PID =1 的進程是系統啟動時的第一個進程,也稱 init 進程。其他的進程,都是由它管理產生的。而此時,PID=1 確實是 django 進程。

接着,退出容器,在宿主機執行 ps 命令

# 環境為 Centos7
[root@localhost ~]# ps -ef | grep gunicorn
root      9623  8409  0 21:29 pts/0    00:00:00 grep --color=auto gunicorn
root     30828 30804  0 May28 ?        00:01:22 /usr/local/bin/python /usr/local/bin/gunicorn -c gunicorn_config.py ctg.wsgi
root     31171 30828  0 May28 ?        00:01:20 /usr/local/bin/python /usr/local/bin/gunicorn -c gunicorn_config.py ctg.wsgi
root     31172 30828  0 May28 ?        00:01:24 /usr/local/bin/python /usr/local/bin/gunicorn -c gunicorn_config.py ctg.wsgi
root     31174 30828  0 May28 ?        00:01:30 /usr/local/bin/python /usr/local/bin/gunicorn -c gunicorn_config.py ctg.wsgi
root     31176 30828  0 May28 ?        00:01:16 /usr/local/bin/python /usr/local/bin/gunicorn -c gunicorn_config.py ctg.wsgi

如果以宿主機的視角,發現 django 進程 PID 變成了 30828. 這也就不難證明,在容器中,確實做了一些處理。把明明是 30828 的進程,變成了容器內的第一號進程,同時在容器還看不到宿主機的其他進程。這也說明容器內的環境確實是被隔離了。

這種處理,其實就是 Linux 的 Namespace 機制。比如,上述將 PID 變成 1 的方法就是通過PID Namespace。在 Linux 中創建線程的方法是 clone, 在其中指定 CLONE_NEWPID 參數,這樣新創建的進程,就會看到一個全新的進程空間。而此時這個新的進程,也就變成了 PID=1 的進程。

int pid = clone(main_function, stack_size, CLONE_NEWPID | SIGCHLD, NULL); 

在 Linux 類似於 PID Namespace 的參數還有很多,比如:

容器的限制:Cgroups

通過 Namespace 技術,我們實現了容器和容器間,容器與宿主機之間的隔離。但這還不夠,想象這樣一種場景,宿主機上運行着兩個容器。雖然在容器間相互隔離,但以宿主機的視角來看的話,其實兩個容器就是兩個特殊的進程,而進程之間自然存在着競爭關係,自然就可以將系統的資源吃光。當然,我們不能允許這麼做的。

Cgroups 就是 Linux 內核中用來為進程設置資源的一個技術。

Linux Cgroups 全稱是 Linux Control Group,主要的作用就是限制進程組使用的資源上限,包括 CPU,內存,磁盤,網絡帶寬。

還可以對進程進行優先級設置,審計,掛起和恢復等操作。

在之前的版本中,可通過 libcgroup tools 來管理 cgroup, 在 RedHat7 后,已經改為通過 systemctl 來管理。

我們知道,systemd 在 Linux 中的功能就是管理系統的資源。而為了管理的方便,衍生出了一個叫 Unit 的概念,比如一個 unit 可以有比較寬泛的定義,比如可以表示抽象的服務,網絡的資源,設備,掛載的文件系統等。為了更好的區分,Linux 將 Unit 的類型主要分為 12 種。

類型 作用
.automount 用於自動掛載配置的掛載點
.swap 描述系統的交換區,反映了設備或文件的路徑
.target 在系統啟動或者改變狀態時,為其他 unit 提供同步點
.path 定義的文件路徑,用於激活。
.service 一個服務或者一個應用,具體定義在配置文件中。
.socket 一個網絡或者 IPC socket,FIFO buffer.
.device 描述一個需要被 systemd udevsysfs 文件系統管理的設備
.mount 定義的掛載點
.timer 定時器
.snapshot systemctl snapshot 命令自動創建的單元
.slice 用於關聯 Linux Control Group 節點,根據關聯的 slice 來限制進程。一個管理單元的組。Slice 並不包含任何進程,僅僅管理由 service 和 scope 組成的層級結構。
.scope systemd 從 bus 接口收到消息后自動創建。Scope 封裝了任意進程通過 fork() 函數開啟或停止的進程,並且在 systemd 運行時註冊。例如:用戶 sessions,容器和虛擬機。

Cgroup 中,主要使用的是 slice, scope and service 這三種類型。

如創建一個臨時 cgroup, 然後對其啟動的進程進行資源限制:

 # 創建一個叫 toptest 的服務,在名為 test 的 slice 中運行
[root@localhost ~]# systemd-run --unit=toptest --slice=test top -b
Running as unit toptest.service.

現在 toptest 的服務已經運行在後台了

# 通過 systemd-cgls 來查看 Cgroup 的信息
[root@localhost ~]#  systemd-cgls
├─1 /usr/lib/systemd/systemd --switched-root --system --deserialize 22
├─test.slice
│ └─toptest.service
│   └─6490 /usr/bin/top -b

# 通過 systemctl status 查看服務的狀態
[root@localhost ~]# systemctl status toptest
● toptest.service - /usr/bin/top -b
   Loaded: loaded (/run/systemd/system/toptest.service; static; vendor preset: disabled)
  Drop-In: /run/systemd/system/toptest.service.d
           └─50-Description.conf, 50-ExecStart.conf, 50-Slice.conf
   Active: active (running) since Tue 2020-06-02 14:01:01 CST; 3min 50s ago
 Main PID: 6490 (top)
   CGroup: /test.slice/toptest.service
           └─6490 /usr/bin/top -b

現在對運行的 toptest 服務進行資源的限制。

# 先看下,沒有被限制前的 Cgroup 的信息, 6490 為進程 PID
[root@localhost ~]# cat /proc/6490/cgroup
11:pids:/test.slice
10:blkio:/test.slice
9:hugetlb:/
8:cpuset:/
7:memory:/test.slice
6:devices:/test.slice
5:net_prio,net_cls:/
4:perf_event:/
3:freezer:/
2:cpuacct,cpu:/test.slice
1:name=systemd:/test.slice/toptest.service

# 對其使用的 CPU 和 內存進行限制
systemctl set-property toptest.service CPUShares=600 MemoryLimit=500M

# 再次查看 Cgroup 的信息,發現在 cpu 和 memory 追加了一些內容。
[root@localhost ~]# cat /proc/6490/cgroup
11:pids:/test.slice
10:blkio:/test.slice
9:hugetlb:/
8:cpuset:/
7:memory:/test.slice/toptest.service
6:devices:/test.slice
5:net_prio,net_cls:/
4:perf_event:/
3:freezer:/
2:cpuacct,cpu:/test.slice/toptest.service
1:name=systemd:/test.slice/toptest.service

這時可以在 /sys/fs/cgroup/memory/test.slice/sys/fs/cgroup/cpu/test.slice 目錄下,多出了一個叫 toptest.service 的目錄。

在其目錄下 cat toptest.service/cpu.shares 可以發現,裏面的 CPU 被限制了 600.

回到 Docker,其實 docker 和我們上面做的操作基本一致,具體需要限制哪些資源就是在 docker run 里指定:

$ docker run -it --cpu-period=100000 --cpu-quota=20000 ubuntu /bin/bash

關於 docker 具體的限制,可以在 sys/fs/cgroup/cpu/docekr/ 等文件夾來查看。

容器的文件系統:容器鏡像 – rootfs

現在我們知道,容器技術的核心就是通過 Namespace 限制了容器看到的視野,通過 Cgroup限制了容器可訪問的資源。 但關於 Mount Namespace 還有一些特殊的地方,需要着重關注下。

Mount Namespace 特殊之處在於,除了在修改時需要進程對文件系統掛載點的認證,還需要顯式聲明需要掛載那些目錄。在 Linux 系統中,有一個叫 chroot 的命令,可以改變進程的根目錄到指定的位置。而 Mount Namespace 正是基於 chroot 的基礎上發展出來的。

在容器內,應該看到完全獨立的文件系統,而且不會受到宿主機以及其他容器的影響。這個獨立的文件系統,就叫做容器鏡像。它還有一個更專業的名字叫 rootfs. rootfs 中包含了一個操作系統所需要的文件,配置和目錄,但並不包含系統內核。 因為在 Linux 中,文件和內核是分開存放的,操作系統只有在開啟啟動時才會加載指定的內核。這也就意味着,所有的容器都會共享宿主機上操作系統的內核。

在 PaaS 時代,由於雲端和本地的環境不同,應用打包的過程,一直是比較痛苦的過程。但有了 rootfs ,這個問題就被很好的解決了。因為在鏡像內,打包的不僅僅是應用,還有所需要的依賴,都被封裝在一起。這就解決了無論是在哪,應用都可以很好的運行的原因。

不光這樣,rootfs 還解決了可重用性的問題,想象這個場景,你通過 rootfs 打包了一個包含 java 環境的 centos 鏡像,別人需要在容器內跑一個 apache 的服務,那麼他是否需要從頭開始搭建 java 環境呢?docker 在解決這個問題時,引入了一個叫層的概念,每次針對 rootfs 的修改,都只保存增量的內容,而不是 fork 一個新鏡像。

層級的想法,同樣來自於 Linux,一個叫 union file system (聯合文件系統)。它最主要的功能就是將不同位置的目錄聯合掛載到同一個目錄下。對應在 Docker 裏面,不同的環境則使用了不同的聯合文件系統。比如 centos7 下最新的版本使用的是 overlay2,而 Ubuntu 16.04 和 Docker CE 18.05 使用的是 AuFS.

可以通過 docker info 來查詢使用的存儲驅動,我這裏的是 overlay2

[root@localhost ~]# docker info
Client:
 Debug Mode: false

Server:
 Containers: 4
  Running: 4
  Paused: 0
  Stopped: 0
 Images: 4
 Server Version: 19.03.8
 Storage Driver: overlay2

接着我們來了解下,Overlay2 的文件系統在 docker 中是如何使用的?

Overlay2

在 Linux 的主機上,OverlayFS 一般有兩個目錄,但在显示時具體會显示為一個目錄。這兩個目錄被稱為層,聯合在一起的過程稱為 union mount. 在其下層的目錄稱為 lowerdir, 上層的目錄稱為 upperdir. 兩者聯合后,暴露出來的視圖稱為 view. 聽起來有點抽象,先看下整體結構:

可以看到,lowerdir 其實對應的就是鏡像層,upperdir 對應的就是容器器。而 merged 對應的就是兩者聯合掛載之後的內容。而且我們發現,當鏡像層和容器層擁有相同的文件時,會以容器層的文件為準(最上層的文件為準)。通常來說,overlay2 支持最多 128 lower 層。

下面實際看下容器層和鏡像具體的體現,我這台 linux 主機上,運行着 4 個 container。

Docker 一般的存儲位置在 /var/lib/docker,先看下裏面的結構:

[root@localhost docker]# ls -l /var/lib/docker
total 16
drwx------.  2 root root   24 Mar  4 03:39 builder
drwx--x--x.  4 root root   92 Mar  4 03:39 buildkit
drwx------.  7 root root 4096 Jun  1 10:36 containers
drwx------.  3 root root   22 Mar  4 03:39 image
drwxr-x---.  3 root root   19 Mar  4 03:39 network
drwx------. 69 root root 8192 Jun  1 15:01 overlay2
drwx------.  4 root root   32 Mar  4 03:39 plugins
drwx------.  2 root root    6 Jun  1 15:00 runtimes
drwx------.  2 root root    6 Mar  4 03:39 swarm
drwx------.  2 root root    6 Jun  1 15:01 tmp
drwx------.  2 root root    6 Mar  4 03:39 trust
drwx------.  3 root root   45 May 18 10:28 volumes

需要着重關注的是 container, image, overlay2 這幾個文件夾。

  • container:這個不用多說,正在運行或創建的容器會在這個目錄下。
  • image:對應記錄的就是鏡像。
  • overlay2:記錄的是每個鏡像下包含的 lowerrdir.

之前提到,unionfs 的實現可能有多種,比如 overlay2,aufs,devicemapper 等。那麼自然在 image 文件夾下,就會存在多種驅動的文件夾,:

image/
└── overlay2
    ├── distribution
    ├── imagedb
    │   ├── content
    │   └── metadata
    ├── layerdb
    │   ├── mounts
    │   ├── sha256
    │   └── tmp
    └── repositories.json

這裏的 imagedblayerdb, 就是存儲元數據的地方。之前我們了解到,容器的文件系統構成就是通過 image 層 和 container 層聯合構成的,而每個 image 可能是由多個層構成。這就意味着,每個層可能會被多個 image 引用。那麼之間是如何關聯的呢?答案就在 imagedb 這個文件下。

這裏我以 mysql 鏡像為例:

※想知道最厲害的網頁設計公司嚨底家"!

RWD(響應式網頁設計)是透過瀏覽器的解析度來判斷要給使用者看到的樣貌

# 查看 mysql 的鏡像 id
[root@localhost docker]# docker image ls
REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
ctg/mysql           5.7.29              84164b03fa2e        3 months ago        456MB

# 進入到 imagedb/content/sha256 目錄, 可以找到對應的鏡像 id
[root@localhost docker]# ls -l image/overlay2/imagedb/content/sha256/
...
-rw-------. 1 root root  6995 Apr 27 02:45 84164b03fa2ecb33e8b4c1f2636ec3286e90786819faa4d1c103ae147824196a

# 接着看下裏面記錄的內容, 這裏截取有用的部分
cat  image/overlay2/imagedb/content/sha256/84164b03fa2ecb33e8b4c1f2636ec3286e90786819faa4d1c103ae147824196a
{
.........
  "os": "linux",
  "rootfs": {
    "type": "layers",
    "diff_ids": [
      "sha256:f2cb0ecef392f2a630fa1205b874ab2e2aedf96de04d0b8838e4e728e28142da",
      "sha256:a9f6b7c7101b86ffaa53dc29638e577dabf5b24150577a59199d8554d7ce2921",
      "sha256:0c615b40cc37ed667e9cbaf33b726fe986d23e5b2588b7acbd9288c92b8716b6",
      "sha256:ad160f341db9317284bba805a3fe9112d868b272041933552df5ea14647ec54a",
      "sha256:1ea6ef84dc3af6506c26753e9e2cf7c0d6c1c743102b85ebd3ee5e357d7e9bc4",
      "sha256:6fce4d95d4af3777f3e3452e5d17612b7396a36bf0cb588ba2ae1b71d139bab9",
      "sha256:6de3946ea0137e75dcc43a3a081d10dda2fec0d065627a03800a99e4abe2ede4",
      "sha256:a35a4bacba4d5402b85ee6e898b95cc71462bc071078941cbe8c77a6ce2fca62",
      "sha256:1ff9500bdff4455fa89a808685622b64790c321da101d27c17b710f7be2e0e7e",
      "sha256:1cf663d0cb7a52a3a33a7c84ff5290b80966921ee8d3cb11592da332b4a9e016",
      "sha256:bcb387cbc5bcbc8b5c33fbfadbce4287522719db43d3e3a286da74492b7d6eca"
    ]
  }
}

可以看到 mysql 鏡像由 11 層組成,其中 f2cb 是最低層,bcb3 是最上層。

接着,我們看下 layerdb 的內容:

[root@localhost docker]# ls -l  image/overlay2/layerdb/
total 8
drwxr-xr-x.  6 root root 4096 May 13 13:38 mounts
drwxr-xr-x. 39 root root 4096 Apr 27 02:51 sha256
drwxr-xr-x.  2 root root    6 Apr 27 02:51 tmp

# 首先看下 sha256 目錄下的內容
[root@localhost docker]# ls -l  image/overlay2/layerdb/sha256/
total 0
....
drwx------. 2 root root 71 Apr 27 02:45 bbb9cccab59a16cb6da78f8879e9d07a19e3a8d49010ab9c98a2c348fa116c87
drwx------. 2 root root 71 Apr 27 02:45 f2cb0ecef392f2a630fa1205b874ab2e2aedf96de04d0b8838e4e728e28142da
....

可以發現,在這裏僅能找到最底層的層 ID,原因在於層之間的關聯是通過 chainID 的方式保存的,簡單來說就是通過 sha256 算法后能計算出一層的容器 id.

比如這裏,最底層 id 是 f2cb0ecef392f2a630fa1205b874ab2e2aedf96de04d0b8838e4e728e28142da , 上一層 id 是 a9f6b7c7101b86ffaa53dc29638e577dabf5b24150577a59199d8554d7ce2921, 那麼對應在 sha256 目錄下的下一層 id 的計算方法就是:

[root@localhost docker]# echo -n "sha256:f2cb0ecef392f2a630fa1205b874ab2e2aedf96de04d0b8838e4e728e28142da sha256:a9f6b7c7101b86ffaa53dc29638e577dabf5b24150577a59199d8554d7ce2921" | sha256sum
bbb9cccab59a16cb6da78f8879e9d07a19e3a8d49010ab9c98a2c348fa116c87  -

接着我們可以在 sha256 目錄下,找到 bbb9.. 這層的內容。

OK,現在我們已經把鏡像和層關聯起來,但之前說過,image 目錄下存的都是元數據。真實的 rootfs 其實在另一個地方 – /docker/overlay2 下。

# 通過查詢 cache-id,得到就是真實的 rootfs 層
[root@localhost docker]# cat  image/overlay2/layerdb/sha256/f2cb0ecef392f2a630fa1205b874ab2e2aedf96de04d0b8838e4e728e28142da/cache-id
2996b24990e75cbd304093139e665a45d96df8d7e49334527827dcff820dbf16[

進入到 /docker/overlay2 下查看:

[root@localhost docker]# ls -l overlay2/
total 4
...
drwx------. 3 root root   47 Apr 27 02:45 2996b24990e75cbd304093139e665a45d96df8d7e49334527827dcff820dbf16
...
drwx------. 2 root root 4096 May 13 13:38 l

這樣真實的 rootfs 層也被找到了。

這裏重新梳理下,我們先是在 mage/overlay2/imagedb/content/sha256/ ,根據 image id 查看該 image 具有所有的層ID,然後根據最底層ID和上層ID通過 sha256 計算得到,引用的上一層 ID, 依次類推,關聯所有的層。最後通過每一層的 cache-id,將元數據和真實的 rootfs 層數據對應起來了。

最後總結一下,rootfs 的構成。

每個 rootfs 由鏡像層(lowerdir)和 容器層(upperdir)構成,其中鏡像層只能只讀,而容器層則能讀寫。而且鏡像層可有最多128層構成。

其實,rootfs 構成還有另外一層,但由於在進行提交或編譯時,不會把這層加進去,所以就沒把這層算在rootfs裏面,但實際上存在的。

在之前我們查看 ls -l /var/lib/docker/overlay2/ 下鏡像層,會看到好幾個以 -init 結尾的目錄,而且數量恰好等於容器的數量。這層夾在鏡像層之上,容器層之下。是由 docker 內部單獨生成的一層,專門用於存放 etc/hosts、/etc/resolv.conf 等配置信息。存在的目的,是由於用戶在容器啟動時,需要配置一些特定的值,比如 hostname,dns 等,但這些配置僅對當前容器有效,放到其他環境下自然有別的配置,所以這層被單獨拿出來,在提交鏡像時,忽略這一層。

容器與虛擬機技術的對比

下面這張圖是 docker 官方中,截取下來的,基於上面我們學習的內容,重新分析下 docker 和 傳統 VM 的區別:

遷移性和性能:

  • 傳統 VM: 需要基於 Hypervisor 的硬件虛擬化技術,模擬出 CPU,內存等硬件。然後在其上搭建一套完整的操作系統,自然在性能上會有很大的損失。遷移自然更不用說,傳統的 ova 導出后就是一個完整的操作系統。
  • Docker:Docker 將 Hypervisor 的位置換成自己的 Docekr Engine. 然後運行的容器僅僅是一個特殊的進程,自然性能不會有太大的損失。並且可以應用和其所需要的系統文件打包成鏡像,無論在哪讀可以正常運行,而且相對於 ova 來說體積也小了更多。(需要內核支持)

一般來說,運行着 CentOS 的 KVM,啟動后,在不做優化的前提下,需要佔用 100~200 M 內存。在加上用戶對宿主機的調用,需要通過虛擬化軟件攔截和處理,又是一層性能損耗,特別是對計算資源,網絡和磁盤I/O等。

隔離性:

  • 傳統 VM:由於是虛擬化出一套完整的操作系統,所以隔離性非常好。比如微軟的 Azure 平台,就是在 Windows 服務器上,虛擬出大量的 Linux 虛擬機。

  • Docker:在隔離性上相差就很多了,因為本身上容器就是一種進程,而所有的進程都需要共享一個系統內核。

    • 這就意味着,在 Windows 上運行 Linux 容器,或者 Linux 宿主機運行高版本內核的容器就無法實現。

    • 在 Linux 內核中,有許多資源和對象不能 Namespace 化,如時間,比如通過 settimeofday(2) 系統調用 修改時間,整個宿主機的實際都會被修改。

    • 安全的問題,共享宿主機內核的事實,容器暴露出的攻擊面更大。

資源的限制:

  • 傳統 VM:非常便於管理,控制資源的使用,依賴於虛擬的操作系統。
  • Docker:由於 docker 內資源的限制通過 Cgroup 實現,而 Cgroup 有很多不完善的地方,比如
    • 對 /proc 的處理問題。進入容器后,執行 top 命令,看到的信息和宿主機是一樣的,而不是配置后的容器的數據。(可以通過 lxcfs 修正)。
    • 在運行 java 程序時,給容器內設置的內存為 4g,使用默認的 jvm 配置。而默認的 jvm 讀取的內存是宿主機(可能大於 4g),這樣就會出現 OOM 的情況。

解決的問題

  1. 容器是如何進行隔離的?

    在創建新進程時,通過 Namespace 技術,如 PID namespaces 等,實現隔離性。讓運行后的容器僅能看到本身的內容。

    比如,在容器運行時,會默認加上 PID, UTS, network, user, mount, IPC, cgroup 等 Namespace.

  2. 容器是如何進行資源限制的?

    通過 Linux Cgroup 技術,可為每個進程設定限制的 CPU,Memory 等資源,進而設置進程訪問資源的上限。

  3. 簡述下 docker 的文件系統?

    docker 的文件系統稱為 rootfs,它的實現的想法來自與 Linux unionFS 。將不同的目錄,掛載到一起,形成一個獨立的視圖。並且 docker 在此基礎上引入了層的概念,解決了可重用性的問題。

    在具體實現上,rootfs 的存儲區分根據 linux 內核和 docker 本身的版本,分為 overlay2 , overlay, aufs, devicemapper 等。rootfs(鏡像)其實就是多個層的疊加,當多層存在相同的文件時,上層的文件會將下層的文件覆蓋掉。

  4. 容器的啟動過程?

    1. 指定 Linux Namespace 配置
    2. 設置指定的 Cgroups 參數
    3. 切換進程的根目錄
  5. 容器內運行多個應用的問題?

    首先更正一個概念,我們都說容器是一個單進程的應用,其實這裏的單進程不是指在容器中只允許着一個進程,而是指只有一個進程時可控的。在容器內當然可以使用 ping,ssh 等進程,但這些進程時不受 docker 控制的。

    容器內的主進程,也就是 pid =1 的進程,一般是通過 DockerFile 中 ENTRYPOINT 或者 CMD 指定的。如果在一個容器內如果存在着多個服務(進程),就可能出現主進程正常運行,但是子進程退出掛掉的問題,而對於 docker 來說,僅僅控制主進程,無法對這種意外的情況作出處理,也就會出現,容器明明正常運行,但是服務已經掛掉的情況,這時編排系統就變得非常困難。而且多個服務,在也不容易進行排障和管理。

    所以如果真的想要在容器內運行多個服務,一般會通過帶有 systemd 或者 supervisord 這類工具進行管理,或者通過 --init 方法。其實這些方法的本質就是讓多個服務的進程擁有同一個父進程。

    但考慮到容器本身的設計,就是希望容器和服務能夠同生命周期。所以這樣做,有點背道而馳的意味。

    控制(回收和生命周期的管理)

參考

Cgroup 介紹

Overlay2介紹

docker 官網

在一個容器內搭建多個服務

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

網頁設計一頭霧水該從何著手呢? 台北網頁設計公司幫您輕鬆架站!

透過資料庫的網站架設建置,建立公司的形象或購物系統,並提供最人性化的使用介面,讓使用者能即時接收到相關的資訊

Redis高可用-主從,哨兵,集群_網頁設計

網頁設計最專業,超強功能平台可客製化

窩窩以「數位行銷」「品牌經營」「網站與應用程式」「印刷品設計」等四大主軸,為每一位客戶客製建立行銷脈絡及洞燭市場先機。

主從複製

Master-Slave主從概念

同時運行多個redis服務端,其中一個作為主(master),其他的一個或多個作為從(slave),主從之間通過網絡進行通訊,slave通過複製master的數據來保持與master的數據同步,實現數據冗餘;

在Redis中,配置主從複製非常簡單,Redis允許slave實例對master進行完整拷貝,在連接斷開時,slave會自動重新連接至主實例,並盡可能與master保持同步;

三個主要機制:

  • 當連接可用時,master將發送命令流到slave來使salve保持更新,以下操作將引發該操作,對msater數據的寫入操作(包括刪除更新),key過期;
  • master和slave節點都會進行超時檢測,當連接不穩定時,slave將儘快重新連接並進行部分重新同步,即不需要完全重新同步;
  • 若無法進行部分重新同步,則slave將發起完全重新同步,master會將最新的數據快照發送給slave,後續的操作仍然是發送命令流;

其他特性:

主從之間,採用異步複製,複製過程中依然可以正常響應客戶端操作,支持一主多從,且從節點還可以類似的級聯其他從節點,如圖所示:

主從複製的作用:

  • 使用主從複製,能夠避免Redis的單點故障,實現數據防災備份;
  • 可配置主節點執行寫入,多個從節點分擔查詢,實現讀寫分離獲得更好的性能

注意:使用主從來做讀寫分離時,意味主節點自身沒有任何持久化數據;如果配置了哨兵,一旦節點重啟,則將使用空數據進行同步,導致從節點覆蓋所有持久化數據,這是非常危險的,牆裂建議在主節點和從節點上開啟持久化,如果一定要關閉,則必須配置主節點禁止哨兵自動重啟故障節點;具體故障模式:連接

配置:

#配置文件中按以下方式添加主節點的ip 和端口即可
replicaof 192.168.1.1 6379
#若主節點配置了授權密碼則需要指定密碼
masterauth 密碼
#主節點通過以下方式設置授權密碼
requirepass 密碼
#客戶端連接后需要先驗證密碼
auth 密碼

#可通過以下指令查看當前連接的服務的主從信息
info replication

副本只讀:

默認情況下副本是只讀的,若需要可以通過配置replica-read-onlyno來使副本變為可寫的,但是要強調的是副本寫入的數據,僅寫入到當前副本本地,不會同步至任何節點,包括當前副本的副本;當副本重啟后這寫數據將消失,即臨時數據;

哨兵

哨兵(Sentinel) 是為redis提供了高可用性(high available/HA),使用Sentinel部署Redis時,可實現在無需人工干預的情況下,自動完成固定類型的故障修復;是Redis盡可能處於正常工作狀態;

哨兵的主要功能:

  • 集群監控:監控redis各個節點是否正常工作;
  • 消息通知:當某個節點出現故障時,可通過API\通知系統管理員或是其他程序;
  • 故障轉移(failover):當master無法無法正常工作時,哨兵可以啟動故障轉移過程,該過程會將某一個slave節點提升為master節點,並主動通知使用redis服務器的應用程序要使用新的地址;
  • ​ 配置中心:當客戶端連接至哨兵時,可通過哨兵獲取可用的Redis服務信息;

哨兵的分佈式性質:

Sentinel本身是一個分佈式系統,即會有多個Sentinel進程通過網絡協同合作,具有以下優點:

  • 當多個哨兵就某一master不可用這一事實達成共識,才會進行故障轉移,降低了因網絡波動造成誤報的可能性;

  • 即使一些哨兵進程無法工作時,其他可用的哨兵仍然能夠正常工作,提供了整個系統應對故障的能力;

    反過來,如果只有單獨的一個哨兵進程實際上是沒有辦法提供高可用的;

啟動哨兵

哨兵的執行文件本質就是redis的服務端,只不過運行的模式不同了,另外運行哨兵必須提供配置文件,否則將拒絕啟動;

首先需要準備配置文件,在下載的源碼中找到sentinel.conf 為了後續方便修改可以將其複製到bin目錄下

指定master的地址和端口

sentinel monitor mymaster 127.0.0.1 6379 2

啟動哨兵的命令有兩種寫法:

#方式1
redis-sentinel sentinel.conf
#方式1
redis-server sentinel.conf --sentinel

若啟動哨兵成功可以在控制台中看到其輸出的master節點信息;

默認情況下哨兵監聽在26379端口上,若開啟了防火牆則需要開放該端口,否則哨兵無法正常工作;

完成故障切換的過程

故障切換的定義:

​ 當master不可用時將一個可用的slave提升稱為master,使結點保持正常訪問;

基於網絡存在不穩定性這個特性,一些時候某個哨兵進程可能無法與master正常通訊,但是這並不意味這master真的不可用了,哨兵無法就此認定master不可用這一事實,哨兵需要能夠檢測master是否客觀的不可用了,並在master不可用成為客觀事實后開始執行故障切換;

  1. 每個Sentinel(哨兵)進程以每秒鐘一次的頻率向整個集群中的Master主服務器,Slave從服務器 以及其他Sentinel(哨兵)進程發送一個 PING 命令
  2. 如果一個實例(instance)距離最後一次有效回復 PING 命令的時間超過 down-after- milliseconds 選項所指定的值,則這個實例會被 Sentinel(哨兵)進程標記為主觀下線(sdown)
  3. 如果一個Master主服務器被標記為主觀下線(SDOWN),則正在監視這個Master主服務器的所有Sentinel(哨兵)進程要以每秒一次的頻率確認Master主服務器的確進入了主觀下線狀態。
  4. 當有足夠數量的 Sentinel(哨兵)進程(大於等於配置文件指定的值)在指定的時間範圍內確認Master主服務器進入了主觀下線狀態(SDOWN), 則Master主服務器會被標記為客觀下線(ODOWN)。
  5. 在一般情況下, 每個Sentinel(哨兵)進程會以每 10 秒一次的頻率向集群中的所有Master主服務器、Slave從服務器發送 INFO 命令。
  6. 當Master主服務器被 Sentinel(哨兵)進程標記為客觀下線(ODOWN)時,Sentinel(哨兵)進程向下線的 Master主服務器的所有 Slave從服務器發送 INFO 命令的頻率會從 10 秒一次改為每秒一次。
  7. 若沒有足夠數量的 Sentinel(哨兵)進程同意 Master主服務器下線, Master主服務器的客觀下線狀態就會被移除。若 Master主服務器重新向 Sentinel(哨兵)進程發送 PING 命令返回有效回 復,Master主服務器的主觀下線狀態就會被移除。

故障切換涉及到的事件和參數:

  • sdown:主觀下線,當某個哨兵與master之間在指定時間內無法正常通訊后該哨兵將產生sdown事件

  • quorum(仲裁數):是一個整數,表示master從主觀下線變為客觀下線所需要的哨兵數量(但有quorum個哨兵與master通訊失敗則master進入主觀下線)

  • odown:當sdown的事件的數量達到指定值(quorum)時,將產odown事件,表示master客觀下線了;

  • majority(大多數):是一個整數,該值通過計算自動得出,計算公式為floor(哨兵總數量/2)+1 floor為下取整

當odown產生時,會選出一個哨兵準備進行故障切換,在切換前該哨兵還需要獲得大多數(majority)哨兵的授權,授權成功則開始進行故障切換;

故障切換完成后,若先前宕機的節點(原來的master)恢復正常,則該節點會降為slave;

部署Sentinel的基本知識

  • 哨兵應與分佈式的形式存在,若哨兵僅部署一個則實際上沒有辦法提高可用性,當僅有的哨兵進程遇到問題退出后,則無法完成故障恢復;

  • 一個健壯的部署至少需要三個Sentinel實例

  • 三個哨兵應該部署在相互的獨立的計算機或虛擬機中;

  • Sentinel無法保證在執行故障轉移期間的寫入的數據是否能夠保留下來;

部署案例:

下例圖中名稱的釋義:
S:sentinel

M:master

R:replace(slave)

1.不要採用下例部署

上述部署中若M1(包括S1,因為在同一個機器上)宕機,剩下的S2雖然可以認定M1主觀下線,但是卻無法得到大多數哨兵的授權並開始故障切換,因為此時majority為2;

2.簡單且實用的部署

上述部署由三個節點組成,每個節點都運行着Redis進程和Sentinel進程,結構簡單,安全性也有了提高;

當M1發生故障時,S2和S3可以就該故障達成一致,並且能夠授權進行故障切換,從而使得客戶端可以正常使用;但也存在丟失已寫入數據的情況,因為redis內部使用異步複製,Master和Slave之間的數據在某個時間點可能不一致;

注意:

由於網絡存在分區性質,若客戶端C1和M1處於同一分區,但是該分區與S1,S2所在的分區無法通訊時,C1可以繼續向M1寫入數據,這寫數據將丟失,因為當網絡恢復時,M1可會被降為slave,而丟棄自己原本的數據;

使用下例配置可緩解該問題:

min-replicas-to-write 1
min-replicas-max-lag 5

上述配置表示,只要master無法寫入數據到任何一個slave超過5秒,則master停止接受寫入;

3.在客戶端部署哨兵

若某些原因導致沒有足夠的服務器節點用於部署哨兵,則可以將哨兵部署至客戶端,如下所示

※推薦評價好的iphone維修中心

擁有專業的維修技術團隊,同時聘請資深iphone手機維修專家,現場說明手機問題,快速修理,沒修好不收錢

若M1出現故障,則S1,S2,S3可順利的進行故障切換;但要注意該部署可能出現案例2中的問題

當然你也可以在客戶端和服務端同時部署哨兵;

配置示例:

#指出master地址和端口  以及仲裁數
sentinel monitor mymaster 127.0.0.1 6379 2
# 與master通訊超時時間,達到超時時間則sdown+1
sentinel down-after-milliseconds mymaster 60000
# 同一個master,開始新的故障轉移的時間(將是上一次的兩倍)
# 若slave連接到錯誤的master超過這個時間后slave將被重新連接到正確的master
# 取消正在進行中的故障轉移等待時間
# 按照parallel-syncs指定的配置進行複製的時間,超時候將不再受parallel-syncs的限制
sentinel failover-timeout mymaster 180000
# 發生故障轉移后,同時進行同步的副本數量
sentinel parallel-syncs mymaster 1

集群

Redis 集群是一個提供在多個Redis間節點間共享數據的程序集。

Redis集群並不支持處理多個keys的命令(如mset),因為這需要在不同的節點間移動數據,從而達不到像Redis那樣的性能,在高負載的情況下可能會導致不可預料的錯誤.

Redis 集群通過分區來提供一定程度的可用性,在實際環境中當某個節點宕機或者不可達的情況下繼續處理命令. Redis 集群的優勢:

  • 自動分割數據到不同的節點上。
  • 整個集群的部分節點失敗或者不可達的情況下能夠繼續處理命令。

示意圖:

集群的數據分片

Redis 集群沒有使用一致性hash, 而是引入了 哈希槽的概念.

Redis 集群有16384個哈希槽,每個key通過CRC16算法校驗后對16384取模來決定放置哪個槽.集群的每個節點負責一部分hash槽,舉個例子,比如當前集群有3個節點,那麼:

  • 節點 A 包含 0 到 5500號哈希槽.
  • 節點 B 包含5501 到 11000 號哈希槽.
  • 節點 C 包含11001 到 16384號哈希槽.

這種結構很容易添加或者刪除節點. 比如如果我想新添加個節點D, 我需要從節點 A, B, C中得部分槽到D上. 如果我想移除節點A,需要將A中的槽移到B和C節點上,然後將沒有任何槽的A節點從集群中移除即可. 由於從一個節點將哈希槽移動到另一個節點並不會停止服務,所以無論添加刪除或者改變某個節點的哈希槽的數量都不會造成集群不可用的狀態.

客戶端可以訪問任意節點進行讀寫操作,若哈希槽不在當前訪問的節點redis會自動的將指令移動到相關節點上;

主從複製模型

為了使在部分節點失敗或者大部分節點無法通信的情況下集群仍然可用,集群使用了主從複製模型,每個節點都會有至少一個slave;

集群在沒有slave的情況下,如果某個節點故障了,那麼整個集群就會以為缺少一部分槽而不可用.

然而如果在創建集群時為每個節點都添加了從節點,在某個節點故障后,其從節點將被選舉為新的主節點,整個集群就不會因找不到槽而不可用,當然若某個節點與其所有子節點都故障了那麼整個節點將不可用;

一致性保證

Redis 並不能保證數據的強一致性. 這意味這在實際中集群在特定的條件下可能會丟失寫操作,主要有兩方面原因:

  • 主節點到從節點之間的指令複製是異步完成的,主從之間在某個時間點可能不一致
  • 出現網絡分區,導致主節點可正常寫入,但是從節點已經被其他分區節點選舉為新的master,寫入的數據將丟失

容錯性

當某master節點故障時,其他master節點將發起投票,若一半以上的master認為其不可用,則從該節點的從節點中(若存在)選舉新的master;

若該master沒有從節點,則集群將不可用

另外當集群一半以上的節點都不可用時則無論這些節點是否有從節點,集群立即不可用;

創建集群:

Redis在5.0版本時放棄了Ruby集群的方式,改為C語言編寫的 redis-cli方式,使得集群的構建方式複雜度大大降低。

集群至少需要三個節點,每個節點一個從節點總共為6個

  1. 配置:

    若要以集群方式運行,則需要按以下方式修改配置文件,以啟用集群:

    cluster-enabled yes
    

    在實際開發中仍然建議使用單獨的虛擬機來部署所有的redis節點,下例為了簡化操作,在同一台虛擬機上搭建集群來進行測試:

  2. 添加上述配置后將bin目錄複製6分名稱為7001-7006,端口從7001-7006

  3. 分別啟動6個redis示例

  4. 使用redis-cli創建集群

    redis-cli --cluster create 10.211.55.9:7001 10.211.55.9:7002 10.211.55.9:7003 10.211.55.9:7004 10.211.55.9:7005 10.211.55.9:7006 --cluster-replicas 1
    

    過程中集群將重寫配置文件,需輸入yes確認

    創建完成后提示如下信息:

    ![image-20200602174849244](/Users/jerry/Library/Application Support/typora-user-images/image-20200602174849244.png)

    可以看到,集群自動為每個master平均分配了哈希槽,並且設置了一個slave

  5. 連接集群

    ./redis-cli -h 10.211.55.9 -p 7001 -c
    # 參數 -c 即表示連接到集群
    
  6. 查看集群狀態

    cluster info
    
  7. 查看節點信息,包括ip,port,id,槽,主/從;

    cluster nodes
    

添加節點

Redis集群支持動態擴展,期間redis可正常響應客戶端訪問

  1. 首先製作新的redis實例端口為7007並啟動

  2. 添加到集群中

    ./redis-cli --cluster add-node 10.211.55.9:7007 10.211.55.9:7001
    

    添加成功:

  3. 新的節點默認作為master,但是該master沒有分配槽位,使用前必須分配哈希槽

    下例表示從id為cc2e48268ccdd52d1c7840c8f9d2d7f15cc74c1b的節點移動1000個槽到cda3828e42e23dcbdb141db2fed221bc07c59f65節點

    ./redis-cli --cluster reshard 10.211.55.9:7001 --cluster-from cc2e48268ccdd52d1c7840c8f9d2d7f15cc74c1b --cluster-to cda3828e42e23dcbdb141db2fed221bc07c59f65 --cluster-slots 1000
    #--cluster-from  來源節點 多個之前用逗號隔開, all 表示從所有節點中平均分配
    #--cluster-to    目標節點
    #--cluster-slots 1000  移動哈希槽數量
    
  4. 為新的master添加從節點

  • 再次啟動一個新的實例

    • 添加至集群並指定為某master的slave

      ./redis-cli --cluster add-node 10.211.55.9:7008 10.211.55.9:7001 --cluster-slave --cluster-master-id cda3828e42e23dcbdb141db2fed221bc07c59f65
      #--cluster-slave 指定新節點作為slave
      #--cluster-master-id 指定新節點的master
      

刪除節點

  1. 刪除從節點7008

    ./redis-cli --cluster del-node 10.211.55.9:7008 887d2f115f6a94bda86863576d73a131f12229d5
    #指定集群host:port  和要刪除的節點id
    
  2. 將主節點的哈希槽分配給其他的主節點

    /redis-cli --cluster reshard 10.211.55.9:7001 --cluster-from cda3828e42e23dcbdb141db2fed221bc07c59f65 --cluster-to cc2e48268ccdd52d1c7840c8f9d2d7f15cc74c1b 
    
  3. 刪除主節點

    ./redis-cli --cluster del-node 10.211.55.9:7007 887d2f115f6a94bda86863576d73a131f12229d5
    #指定集群host:port  和要刪除的節點id
    
  4. 哈希槽均衡,該操作檢查各節點的槽均衡情況,若差異較大則自動重新分配

    ./redis-cli --cluster rebalance 10.211.55.9:7001
    

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

台北網頁設計公司這麼多該如何選擇?

網動是一群專業、熱情、向前行的工作團隊,我們擁有靈活的組織與溝通的能力,能傾聽客戶聲音,激發創意的火花,呈現完美的作品

實戰| 配置DataDog監控Apache Hudi應用指標_貨運

※評比南投搬家公司費用收費行情懶人包大公開

搬家價格與搬家費用透明合理,不亂收費。本公司提供下列三種搬家計費方案,由資深專業組長到府估價,替客戶量身規劃選擇最經濟節省的計費方式

1. 可用性

在Hudi最新master分支,由Hudi活躍貢獻者Raymond Xu貢獻了DataDog監控Hudi應用指標,該功能將在0.6.0 版本發布,也感謝Raymond的投稿。

2. 簡介

Datadog是一個流行的監控服務。在即將發布的Apache Hudi 0.6.0版本中,除已有的報告者類型(Graphite和JMX)之外,我們將引入通過Datadog HTTP API報告Hudi指標的功能。

3. 配置

類似於其他支持的報告者,啟用Datadog報告者需要以下兩個屬性。

hoodie.metrics.on=true
hoodie.metrics.reporter.type=DATADOG

下面的屬性用來配置Datdog API站點。它會決定請求被發送給api.datadoghq.eu (EU) 還是 api.datadoghq.com (US)。根據你的Datadog賬號作相應配置。

hoodie.metrics.datadog.api.site=EU # 或者 US

hoodie.metrics.datadog.api.key可以讓你配置API密匙。

hoodie.metrics.datadog.api.key=<你的API密匙>
hoodie.metrics.datadog.api.key.supplier=<你的API密匙提供者>

出於安全性考慮,你可能會選擇在運行時返回API密匙。要使用這個方法,需要實現java.util.function.Supplier<String>。並把實現類的完整類名設置到hoodie.metrics.datadog.api.key.supplier。由於hoodie.metrics.datadog.api.key有更高的優先級,也要確保它沒有設置。

下面的屬性用來配置指標前綴,從而區分不同job的指標。

※智慧手機時代的來臨,RWD網頁設計為架站首選

網動結合了許多網際網路業界的菁英共同研發簡單易操作的架站工具,及時性的更新,為客戶創造出更多的網路商機。

hoodie.metrics.datadog.metric.prefix=<你的指標前綴>

注意這裏.會被用來隔離前綴和指標名。比如,如果前綴是foo,則foo.會被加在指標名稱前。

其他的可選屬性在配置參考頁里有相關解釋。

4. 示例演示

在這個示例中,我們運行了一個HoodieDeltaStreamer,啟用了指標收集並做了相應的配置。

如圖所示,我們能收集到Hudi操作相關的指標,比如

  • <前綴>.<表名>.commit.totalScanTime
  • <前綴>.<表名>.clean.duration
  • <前綴>.<表名>.index.lookup.duration

以及HoodieDeltaStreamer相關的指標。

  • <前綴>.<表名>.deltastreamer.duration
  • <前綴>.<表名>.deltastreamer.hiveSyncDuration

. 總結

Hudi提供了多種報告者,方便監控Hudi應用運行時的各項指標,及時發現系統中的問題。

本站聲明:網站內容來源於博客園,如有侵權,請聯繫我們,我們將及時處理

※回頭車貨運收費標準

宇安交通關係企業,自成立迄今,即秉持著「以誠待人」、「以實處事」的企業信念