生活

Mac Mini M4 開發筆記:oMLX 本地模型與 MiniMax 雲端模型自動切換實踐

這篇文章在講什麼?簡單來說,黃醫師在開發 ACHEOFF 醫療設備軟體時,遇到了一個問題:AI 輔助工具要花錢,但免費額度用完就沒了。於是我參考了網路上的方法——讓 AI 自動在「免費」和「花錢」之間切換,就像手機訊號不好時會自動切換網路一樣。

🎯 黃醫師遇到什麼問題?

在開發 ACHEOFF 醫療設備軟體時,需要 AI 幫忙寫程式碼。一開始使用 MiniMax M2.5(很強的 AI 模型),但免費額度用完後就不能用了。

大多數人的選擇:

  • 付費繼續使用(但金額會累積)
  • 改用免費但較弱的 AI(但速度慢、能力有限)

不想多花錢的黃醫師選擇第三條路:兩個都要!

🛠️ 硬體設備

配備 規格
電腦 Mac Mini M4(2024 年版本)
記憶體 16GB 統一記憶體
系統 macOS 15+

一台普通的 Mac Mini,不是特別貴的那種。

💡 核心概念:「本地優先,雲端補位」

這句話聽起來很專業,但其實概念很簡單:

想像你在開車出遊:

  • 油箱滿的時候(雲端額度夠)→ 開快一點,用更強的 AI
  • 油快用完的時候(雲端額度不足)→ 切換到省油模式,用本地端的 AI

  • 本地端 AI 就像「自行車」,隨時可用但速度慢一點
  • 雲端 AI 就像「跑車」,很快但需要花錢加油

🔧 系統設定說明(白話版)

1. 在家裡放一個「AI 服務生」

黃醫師在 Mac Mini 裡安裝了一個叫做 oMLX 的軟體,這個軟體專門用來「跑」AI 模型。

因為電腦只有 16GB 記憶體(RAM),所以選擇了一個比較「輕量」的模型叫做 Qwen3.5-9B,這個模型大約佔用 5.82GB 的記憶體,還剩空間給其他程式用。

2. 設定「自動切換開關」

寫了一個小小的程式(叫做 auto_switch.sh),每當 MiniMax 雲端的額度低於 20 次時,系統就會自動切換:

「唉呀!免費額度快用完了,切換到本地端的 Qwen3.5 模型吧!」

等到下個月額度重置後,又會自動切回 MiniMax M2.5。

3. 讓手機通知他

還設定了 Telegram 機器人,每當 AI 切換模式的時候,手機會收到通知,就像這樣:

🔄 會話啟動!目前使用:Qwen3.5-9B,內容使用率:97%

📊 效果如何?

之前 之後
用另一個類似軟體(ollama)跑同樣的查詢 23 分鐘
用 oMLX + Qwen3.5 幾秒鐘就完成

速度提升超級多! 從 23 分鐘變成幾秒鐘,這是因為 oMLX 這個軟體特別優化過,能更有效地利用 Mac Mini 的硬體。

🎁 這樣做有什麼好處?

    1.  

    1. 省錢:免費額度用完後,自動切到本地端 AI,不用花冤枉錢

  1.  

    1. 不停工:AI 額度用完不會突然就不能用,系統會無縫切換

  1.  

    1. 速度快:本地端 AI 反應比雲端快(不用等網路傳輸)

  1.  

    1. 隱私安全:某些程式碼可以完全在本地端處理,不會傳到網路上

🔑 總結

這方法結合了「雲端 AI」(厲害但要花錢)和「本地 AI」(較弱但免費),並寫了一個自動切換系統,讓我們在開發軟體時既能用到最強的 AI,又不會因為額度用完而中斷工作。


啟發是:如果你的工作需要用到 AI 程式輔助,可以參考這個概念——不要把所有雞蛋放在同一個籃子裡,免費的和付費的搭配使用,才能兼顧效能和成本。

這就是這篇技術文章的通俗解說版本,希望對你有幫助!

下面是技術性較高的正文 (其實黃醫師也不全瞭解—拜Vibe Coding所賜😅)

為了在進行 ACHEOFF 醫療設備開發時擁有高效且不間斷的 AI 輔助,我設計了一套「本地優先,雲端補位」的系統。當 MiniMax 雲端額度充足時,利用其強大的推理能力;當額度用罄或需離線處理時,自動切換至優化過的本地 Qwen3.5 模型。

混合 AI 算力架構:在 Mac Mini M4 上整合 oMLX 與 MiniMax

為了在進行 ACHEOFF 醫療設備開發時擁有高效且不間斷的 AI 輔助,我設計了一套「本地優先,雲端補位」的系統。當 MiniMax 雲端額度充足時,利用其強大的推理能力;當額度用罄或需離線處理時,自動切換至優化過的本地 Qwen3.5 模型。

硬體環境:
機型:Mac Mini M4 (2024)
記憶體:16GB 統一記憶體 (Unified Memory)
系統:macOS 15+

一、 本地端配置:oMLX 與 Qwen3.5 9B

參考了 freedidi.com 的部署建議,針對 16GB RAM 的限制,我選擇了 4-bit 量化的 Qwen3.5-9B-MLX。透過 oMLX 伺服器,我們能精準控制記憶體邊界並啟用高效快取。

oMLX 關鍵設定

{
  "max_memory": "11.52GB",      // 預留空間給系統與其他應用
  "hot_cache_max_size": "8.00GB", // 提升 KV Cache 回應速度
  "max_context_window": 32768,    // 兼顧深度與記憶體穩定性
  "paged_ssd_cache": "Enabled"    // 當 RAM 壓力過大時,自動分頁至 SSD
}

這種配置下,Qwen3.5 9B 模型實際佔用約 5.82GB RAM,配合 11.7GB 的程序限制,能確保系統在高負載下依然穩定。

二、 OpenClaw 整合設定

OpenClaw 作為核心調度器,負責連接 oMLX 提供的 OpenAI 相容接口以及 MiniMax 雲端 API。

openclaw.json 配置摘要

{
  "models": {
    "providers": {
      "minimax": {
        "baseUrl": "https://api.minimax.io/v1",
        "apiKey": "sk-cp-xxxxxxxxxxxx", // 雲端 Coding Plan Key
        "models": [{ "id": "MiniMax-M2.5", "contextWindow": 204800 }]
      },
      "omlx": {
        "baseUrl": "http://127.0.0.1:8000/v1",
        "apiKey": "local-auth",
        "models": [{ "id": "Qwen3.5-9B-MLX-4bit", "contextWindow": 49152 }]
      }
    }
  },
  "agents": {
    "defaults": { "model": { "primary": "minimax/MiniMax-M2.5" } }
  }
}

三、 自動化切換腳本:auto_switch.sh

為了避免 MiniMax Coding Plan 超量導致工作中斷,我撰寫了一個 Bash 腳本,每隔一段時間檢查雲端餘額,並在必要時自動修改 OpenClaw 配置並重啟 Gateway。

#!/bin/bash
# 檢查 MiniMax 餘額並自動切換模型
API_KEY="sk-cp-xxxxxxxxxxxx"
THRESHOLD=20 # 剩餘次數低於此值則切換

# 1. 獲取剩餘額度
BODY=$(curl -s "https://api.minimax.io/v1/api/openplatform/coding_plan/remains" -H "Authorization: Bearer $API_KEY")
REMAINS=$(echo "$BODY" | jq -r '.model_remains[0] | .current_interval_total_count - .current_interval_usage_count')

# 2. 判定邏輯
if [ "$REMAINS" -lt "$THRESHOLD" ]; then
    # 切換至本地 oMLX
    openclaw config set agents.defaults.model.primary "omlx/Qwen3.5-9B-MLX-4bit"
    openclaw gateway restart
else
    # 額度充足則保持或換回 MiniMax
    openclaw config set agents.defaults.model.primary "minimax/MiniMax-M2.5"
    openclaw gateway restart
fi

四、 Telegram 狀態監控:從靜態配置到動態通知

為了確保在 ACHEOFF 開發過程中能即時掌握系統狀態,我實作了兩層級的 Telegram 監控:系統級通訊埠配置任務級動態狀態回報

1. 系統級:OpenClaw Channel 配置

首先在 openclaw.json 中啟用原生 Telegram Channel 支援。這允許我直接透過 Telegram 手機端對 Agent 下達指令,同時定義了存取權限 white-list。

"channels": {
  "telegram": {
    "enabled": true,
    "botToken": "873359xxxx:AAFC0rRa...", // 向 @BotFather 申請的憑證
    "allowFrom": ["11064xxxxx"],         // 限制僅限我的 Chat ID 存取
    "streaming": "partial"
  }
}

2. 邏輯級:自動切換通知 (Shell Integration)

我在 auto_switch.sh 腳本中整合了 Telegram Bot API。當系統偵測到 MiniMax 額度低於門檻並觸發切換至本地 oMLX/Qwen3.5 時,會同步發送 Push Notification。

# 在 auto_switch.sh 中加入的通知邏輯
if [[ "$CURRENT_MODEL" != *"$LOCAL_MODEL"* ]]; then
    # 執行切換...
    curl -s -X POST https://api.telegram.org/bot$TG_TOKEN/sendMessage \
    -d chat_id=$TG_ID \
    -d text="⚠️ MiniMax 額度不足!已自動切換至本地 oMLX 運算。"
fi

3. 任務級:Context 佔用率監測 (Startup Sequence)

針對 Mac Mini M4 16G 的記憶體限制,我設定了 Agent 的「啟動序列 (Startup Sequence)」。每當新建會話(New Session)時,Agent 會自動執行以下工具流:

    •  

    • session_status:調用內部工具獲取目前 Context 佔用百分比(例如:97% used)。

    • exec (curl):將獲取到的 Token 數據與當前使用的模型名稱(Qwen3.5 9B vs MiniMax M2.5)封裝成 JSON 透過 curl 傳送至手機。

監控優勢:
透過這套配置,Agent 在啟動時會主動回報:"🔄 會話啟動!當前模型: Qwen3.5-9B-MLX, Context: 31.9k/32.8k (97%)"。這讓我能即時判斷是否需要手動下達 /reset 來釋放 KV Cache,避免因記憶體溢出導致的 ACHEOFF 代碼生成中斷。

五、 故障排除與優化

  • 目錄權限:修復了 Telegram 插件找不到 telegram.jsonENOENT 錯誤,確保了狀態持久化。
  • 執行路徑:在 crontab 任務中明確定義了 export PATH,解決了 cron 環境下找不到 jq 的問題。
  • 本地端效能:實測顯示 Qwen3.5 9B MLX 在 4-bit 量化下,對 Mac Mini M4 的負載極低,是完美的備援方案。

六、 結語

這套架構完美解決了開發 ACHEOFF 時對強大算力的需求,同時透過 oMLX 的 SSD 分頁技術克服了物理記憶體的不足。透過自動化腳本,我再也不需要手動檢查餘額,能夠專注在代碼與產品開發上。

之前是運用ollama serve qwen3.5:9b, 雖然經過一段時間努力是能跑了,但是回應一個查詢,MiniMax 套餐剩餘多少prompt可用的問題,竟然跑了23分鐘才回答出來😅。這套oMLX可能是在有限記憶體下,運用SSD swap記憶體運用的最有效模式了

👍這套混合算力系統在 2026 年 3 月 16 日正式達成全自動化運作。它不僅讓我們在開發 ACHEOFF 醫療設備時無懼額度限制,更透過本地與雲端的協作,將 Mac Mini M4 的效能壓榨到了極限。這不僅是軟體配置的勝利,更是對自動化維運與資源管理的實踐證明。

報告生成時間:2026-03-16 01:32 (Taipei Time)

 

🚀 ACHEOFF 混合算力:全自動部署手冊

最後更新日期:2026-03-16 | 核心狀態:雲端全功能已啟動

💡 今日核心發現 (Vibe Coding 實戰紀錄):
  • 額度邏輯反轉: MiniMax API 的 [1500] 代表全滿可用。當數字下降時(如 [1486]),才代表額度正在消耗。
  • 聯動切換: 系統不僅切換模型,還會動態調整 tools.deny。雲端模式解除封印,本地模式則鎖定安全限制。

1. 核心自動化腳本彙整

A. 額度精確監控 (minimax_session_remains.py)

# 修正後的邏輯:直接讀取 Usage Count 作為可用餘額
available = data['model_remains'][2]['current_interval_usage_count']
print(f"[{available}]")

B. 全功能聯動切換 (auto_switch.sh)

# 當額度充足時,強制恢復全功能配置
if [ "$AVAILABLE" -gt 100 ]; then
    openclaw config set agents.defaults.model.primary "minimax/MiniMax-M2.5"
    openclaw config set tools.deny "[]"  # 解除封印
    openclaw gateway restart
fi

2. 避坑指南:四大關鍵教訓

  • 清空「殭屍會話」: 切換模型後,必須執行 rm -rf ~/.openclaw/agents/main/sessions/*。否則背景定時任務(Cron)會釘死在舊模型,造成額度與算力錯位。
  • 內建插件誤區: self-improvement 已轉為系統整合掛鉤 (Integrated Hooks),不可手動加入 plugins.allow,否則會導致 Gateway 啟動失敗。
  • 路徑 Typo 警示: crontab 中的點號 . 若寫成逗號 ,,將導致所有日誌記錄與切換邏輯失效。
  • 沙盒模式: 在無 Docker 環境下,請確保 agents.defaults.sandbox.mode 設為 off,以免服務無法正常啟動。

3. 狀態監控 Skill 啟動詞

請將以下指令發送給 OpenClaw 以啟動 Telegram 即時監控:

「請建立 session_status 技能,執行 openclaw status 並將當前 Model 與 Context 佔用率透過 Telegram API (Token: 873359… ID: 110641…) 發送至我的手機。」

© 2026 ACHEOFF Inc. – 由黃醫師與 Gemini 協作生成

生活

實戰指南:在 Mac Mini M4 (16GB RAM) 上打造最強本地 AI Agent

最近流行養龍蝦,黃醫師看看家裡那台閒置的Mac Mini M4,想說也來養看看吧!結果,還真是一大串試誤過程。還是分享一下慘痛經驗吧!(不過,如果有什麼賺錢用途,還是乖乖用雲端模式的好…良心建議)

前言
在 16GB 統一記憶體(Unified RAM)的 Mac 上運行具備全自動化、能自己下 Shell 指令的 AI Agent,是一場記憶體與模型智商的極限拉扯。模型太小容易產生格式幻覺(Hallucination),不聽從工具調用規範;模型太大又會直接把系統搞到 OOM (Out of Memory)。

本文將分享如何使用 OpenClaw 框架,搭配 Ollama 與微調過的 Qwen 3.5 9B,在 Mac Mini M4 16GB 上打造一個聽話、穩定、且具備長期記憶與 Terminal 執行權限的 Personal Knowledge Management (PKM) 助理。

OpenClaw 運行截圖


🛠️ Step 1: 基礎環境與 OpenClaw 安裝

首先,確保你的 Mac 已經安裝了 Node.js 與 Ollama。打開終端機,全域安裝 OpenClaw 並初始化:

npm install -g openclaw
openclaw init

這會在你的使用者目錄下建立 ~/.openclaw/ 資料夾,這也是我們接下來要動刀的核心區域。


🧠 Step 2: 模型記憶體優化 (Modelfile 改造)

Qwen 3.5 9B 是 16GB RAM 的「極限甜蜜點」,智商夠高,能理解複雜的 JSON 規範。但預設的 Context Window 可能會讓記憶體溢出。我們需要透過 Ollama 的 Modelfile 來強制限制它的資源佔用。

1. 建立一個名為 Qwen-PKM.Modelfile 的純文字檔:

FROM qwen3.5:9b

# 限制上下文視窗,16384 是 OpenClaw 啟動複雜工具鏈的最低安全門檻
PARAMETER num_ctx 16384

# 限制單次最大輸出長度,保留記憶體給作業系統
PARAMETER num_predict 4096

# 降低溫度,讓 Agent 執行工具時更像冷酷的機器,減少廢話
PARAMETER temperature 0.1

2. 終端機執行轉換指令,建立專屬模型:

ollama create qwen3.5-pkm -f ./Qwen-PKM.Modelfile

⚙️ Step 3: 核心配置檔設定 (Config, AGENTS, SOUL)

接下來要進入 ~/.openclaw/ 修改設定,這是確保 Agent 穩定運行的關鍵。

1. 修改 openclaw.json (系統設定)

主要調整模型指向與超時時間(16GB 跑起來較慢,需增加 Timeout 避免執行中斷)。

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5-pkm"
      },
      "timeoutSeconds": 600 
    }
  }
}

2. 修改 AGENTS.md (代理人職責)

在這裡定義 Agent 的核心任務與環境限制,告訴它硬體只有 16GB RAM,禁止開啟過多並行任務。

3. 修改 SOUL.md (終極防護網:解決 JSON 格式與 STDOUT 問題)

這是本文最重要的踩坑心得。 開源模型非常容易在調用工具時,把 JSON Key 寫錯(例如把 name 寫成 action),或是執行完 ls -la 後不給你原始輸出。

請在 ~/.openclaw/workspace/SOUL.md 的最頂端加入以下「嚴謹回報協議」:

## Strict Reporting & Execution Protocol (CRITICAL)
- 我是 OpenClaw 的自動化核心,不是聊天機器人。
- **格式絕對強制**:當需要調用工具(如 exec)時,我必須且只能使用以下 JSON 格式:
  {"name": "工具名稱", "arguments": {"參數名稱": "數值"}}
  嚴禁使用 action、tool_name 或任何非官方標籤。
- **原始輸出協議**:執行完終端機指令後,我必須主動、完整地回報 STDOUT 的原始文字。嚴禁對終端機輸出進行任何總結、過濾或翻譯。
- 當使用者要求執行指令時,不要解釋,直接輸出可被解析的 JSON。

🧩 Step 4: 擴充記憶與技能 (Skills & LanceDB)

為了讓 Agent 真正強大,我們需要安裝技能與向量資料庫。

1. 安裝基礎技能

openclaw skill install exec     # 賦予 Shell 執行權限
openclaw skill install weather  # 天氣查詢

2. 從 GitHub 手動安裝 memory-lancedb-pro

這能賦予 Agent 長期記憶。由於進階套件需要直接從源碼構建,請依序執行:

1. 前往 Jina AI 註冊並獲取免費的 Jina Embeddings API Key(在 16GB Mac 上跑本地 Embedding 會太卡,外包給 Jina 是最佳解)。

2. 開啟終端機,進入 OpenClaw 的外掛目錄並 Clone 專案:

cd ~/.openclaw/plugins
git clone https://github.com/OpenClaw/memory-lancedb-pro.git

(註:請將上述 GitHub 網址替換為該外掛實際的 Repository URL)

3. 進入該目錄並安裝 Node.js 相依套件:

cd memory-lancedb-pro
npm install

4. 編輯 ~/.openclaw/openclaw.json 中配置 Jina API Key:

"plugins": {
  "memory-lancedb-pro": {
    "embedding": {
      "provider": "jina",
      "apiKey": "你的_Jina_API_Key"
    }
  }
}

💡 總結與最佳實踐

在 Mac Mini M4 16GB 上玩轉本地 Agent,最大的挑戰不在於算力,而在於「如何馴服模型的本能」

透過 Modelfile 限制資源,並透過嚴厲的 SOUL.md 協議強制對齊 OpenClaw 的 name/arguments JSON 格式,我們成功讓 Qwen 3.5 9B 變成了一個冷酷、精準、會乖乖吐出 RAW STDOUT 的超級開發助理。

Troubleshooting 小提示:如果你的 Agent 突然又開始胡言亂語或格式錯誤,請毫不猶豫地在終端機執行 openclaw gateway restart,讓它重新讀取 SOUL.md,它就會乖乖恢復正常了。

 

生活

令人驚異的第二大腦!!!

昨天晚上,透過前天參加,由白袍人生學院與玉山銀行舉行的診所開業實務課程,參加了峰值體驗作者,汪志謙老師,針對醫師族群的第二大腦線上課程。

他的ABT第二大腦,跟之前看到的關聯式線上筆記系統,如obsidian,不太相同。ABT是根據峰值體驗的整套商業分析模板,配合了AI,寫出一個可以根據他的模板產生出整套商業建議的介面。等於是把汪志謙老師整個大腦,複製到介面裡,隨時讓你提問。只要你用對問題(當然是要根據峰值體驗來提問),他就會躲在ABT後面,幫你做即時的企管顧問!

課還沒上完,就把我的網站用perplexity總結出來,然後用他的介面來產生出了商業建議。前後不到十分鐘。當然還有很多需要調整的,但是的確點出了很多需要思索的地方。

這是套難以形容的巧妙方式,只要有個完整的履歷,輸入進去,ABT第二大腦就會幫你把自己這個產品,做出完整的商業建議,連怎樣打造可以複數倍增獲客、訂價模式建議,都能快速打造出來。對於非商業出身的所有人,的確有非常大的價值!就算商業出身的朋友們,也能幫助整理思路,找出自己盲點。

下面節錄一些我被批評得體無完膚的段落😑

連行動計劃,和推動成本,都幫最會拖延的我,一一列出來😅

ABT第二大腦,的確值得研究!不只如同得到汪志謙老師這位商業顧問,隨時指導;如果能把自己的大腦也複製進去,跟自己對話,一定對自己未來的成長,會有巨大的幫助!可惜目前系統沒有訂價,只能透過推薦使用,而且推薦碼一位使用者一天只有三個😅,而且推薦碼是被使用後,才會產生一個新的推薦碼…如果有需要的朋友,可以聯絡我,黃醫師再按email的先後順序發放,但是請麻煩盡快使用,不然後面要求推薦碼的朋友,就會拖更久才拿的到了😅

生活, 醫療

我為何停用善纖達Saxenda和胰妥讚Ozempic

之前黃醫師有試過善纖達Saxenda胰妥讚Ozempic一陣子,的確都效果很好。Saxenda用的時間比較短,是因為每天打,後來剩不多了,沒有按建議加劑量上去;Ozempic一星期打一次,就真的比較方便了,而且黃醫師也換算出胰妥讚Ozempic換算成減肥劑型Wegovy的用法,不過後來變難買了,所以也停下來。

不過,其實在使用胰妥讚Ozempic 期間,黃醫師有產生幾個比較沒出現在仿單的副作用。

第一、心跳增快

第二、肝指數變高

雖然心跳也沒快到有不舒服(每分鐘90多)、肝指數也只上昇到70左右;但是黃醫師之前肝指數大概20年間長期維持在70上下,好不容易2015年,因為腎指數突然變高,嚴格限制飲食之後,肝腎指數同時恢復正常(後來發現甲狀腺功能低下,難怪那前半年體重增加到難以想像的程度)。其實蠻怕肝指數又升高起來,所以剛好藥的來源也中斷了,乾脆就先停藥。停藥其實也三個月左右,肝指數就降下來,心跳也沒這麼快了。

所以所有的減重方式,其實還是需要密切追蹤身體狀況有沒有什麼變化,有時候單看研究報告、仿單,其實那些常見副作用,只是一個統計數字;你碰到了很少見的副作用,碰到就碰到了,也是得評估是不是在可控、可接受範圍。(其實我還蠻想撐久一點,不過,只是剛好藥也變難買了😅)

另外,七月底開始,黃醫師剛好線上受了達賴尊者的灌頂,每天有固定做功課,也偶爾有靜坐、大概九月開始,有進行自授八關齋戒,每個月有六天,過午不食,也在當天避免犯其他七種戒律。這四個多月,盡量吃蛋奶素、盡量減少吃便利商店的食物、生活上比較規律,也心情比較平靜(除了這三四個禮拜,因為另外有家裡的煩心事、功課也比較沒進展,所以😅),體重還是有降到當時三個月間,使用胰妥讚Ozempic時的低點(當然那時候起點大概多兩公斤)。

三個多月使用藥物,跟四個多月改變生活作息,其實各有利弊啦!但是這也說明,減重並沒有一定要靠什麼方法,才能減下來。只要在身體許可的狀況下,能健康減重的方法,都是好方法💪

與大家共勉喔!🙏

生活

持修觀音四十二手手眼法,我的做法

自從2022/7/8在線上受達賴喇嘛勝樂金剛灌頂後,因為規定要每日功課,才不會讓上師為我遭罪,所以黃醫師就維持了三個月的每日功課,也同時涉略了南傳佛教、天台宗的止觀教法。也重新開始唸大悲咒。最近因為同學提到觀音四十二手很殊勝,也買了林光明教授的書來讀。

而在果濱居士的【袖珍型《房山石經》版的梵音「楞嚴咒」暨《金剛經》課誦】內,所附梵音咒語教學連結提到,觀音四十二手手眼咒可以選擇自己想要和觀音菩薩結緣的咒語,每天唸108遍起跳。但是兩手都要結手印,該怎麼計數呢?

所以,就想了個辦法:跟著影片唸。但是沒有108遍的影片啊!所以只好自己編輯了。

太久沒製作影片,上面影片聲音品質還真是糟糕。重新製作一個稍微好一點的版本;這次從頭從困濱居士的梵語咒音檔開始製作。

另外,後來也開始一個月受六天的八關齋戒,盡量減少吃明顯有添加物的食物;雖然很慢,而且外觀看不太出來😅,但是體重也慢慢降到之前打GCP-1減到的重量了。

GCP-1對我不太合適,會心跳變快、血壓高、還有肝功能指數升高🤐。

生活, 醫療

漸進式肌肉放鬆法

最近接觸到這段影片,想到的確門診看到的朋友,很多都是覺得自己很放鬆,但其實一點也不的。其實放鬆和緊張是相對的,這段引導,就運用了這個對比,來讓大家逐漸感受到什麼是鬆,什麼是緊。這是很值得練習的。

黃醫師其實也自認為夠放鬆,很久沒這樣練習了;結果一練習,的確還是能發現身上還是有些地方是緊的。要再來多練練了!

生活

四樓的天堂

上星期天開始,公視開始播這部「四樓的天空」。我是剛看完Netflix一個影片,就跳出第一集的片花,黃秋生走在街上,看著路人走路、肉攤師傅的動作,就邊分析出這位朋友骨架的情況與可能的成因;這就黃醫師以前最感興趣的步態分析和學美式整脊、礒谷療法的源起嘛!影片看著看著,回想起之前想要做的治療,和現在每個病人能給予幫忙的時間限制,突然覺得理想裡好像該做什麼,但現實卻太骨感了,跟理想差太遠😷

今天播到第四集,丁寧演的這位病人,跟門診中看到的很接近啊!太部份病人都是不知道怎麼放鬆的(像黃秋生要丁寧放鬆,結果手一直握拳、黃秋生放手了,丁寧手臂還抬著、手臂舉高放下,肩膀還聳著。運動鍛鍊的確也很重要,可是肌肉的訓練最有效的方式,是讓橫紋肌細胞裡的肌動蛋白和肌凝蛋白從完全重疊(最大力量輸出)到最少重疊(完全放鬆)交替發生;所以有沒有完全放鬆是差很多的。不過要像黃秋生那樣,這麼快讓病人學習到怎麼放鬆,好像也沒這麼容易啊!

第四集也提到大腸經,大腸經不通,會性子急、容易口渴;我有時候好像也會這樣😐。大腸經與肺經相表裡,所以大腸經不通,也容易呼吸受影響。這就又該我聯想到左肩打第二劑混打莫德納疫苗後,黃醫師左肘網球肘就一直沒完全好過。雖然最近活氧舒筋器攜帶型開發出原型機後,使用很方便,但是攜帶機型是使用惰性氣體,比較單純是物理性作用;昨天參考肯園溫佑君老師的精油圖鑑分類方式,網球肘所在的大腸經,所對應的含倍半萜烯精油,調配出一組精油,先用滖珠瓶抺在網球肘部份,再以攜帶式活氧舒筋器治療,網球肘的痛感大幅減低,甚至讓黃醫師懷疑是不是抺了麻藥。或許這會是之後的一個方向。

當然,有時候也不是放鬆下來就沒事了;黃醫師前陣子腋下濕疹,強迫左手抬高讓腋下透氣一晚,本來也覺得網球肘好了,但是過兩天又復發。其實除了意外,一個疾病的發生,大概都有一個長期以來的因素,黃醫師雖然很想推罪給莫德納就好,但是會這麼難處理,就像「四樓的天堂」裡說的,人身上都有一個結,結沒鬆開,就會有病,但人因病而完整。就像今晚YouTube一部講覺察的影片,人往往在一次傷害後,選擇忘卻,但是同樣的情況還是一再出現,困擾自己;最後,人覺察到了「為什麼這個情況會一直出現,反覆傷害自己呢?」這才慢慢踏上真正療癒自己的過程。

希望,黃醫師藉自己這次網球肘的發作,找到自己的結;也希望大家,也都能覺察到自己身體正在告訴自己的話,先把生活步調慢下來,聽一聽身體在說什麼。

生活

Lucifer 魔鬼神探

第六季終於結束了。


從第一季開始,一直都沒幾天就把丟出來的半季追完,然後期待下半季;魔鬼神探這劇集就是有這樣魅力。其實也忘掉到底前幾季看完後,有什麼人生的收穫,不過這一季看完,應該不會忘記了。

新時代(New Age)的這些高靈指導,很常聽到的說法是:這次人生,是你的靈魂在你這次入世前,自己決定這一生要學習或體驗些什麼。

佛教說:這個世上,我們用眼耳鼻舌身意這六感,覺察到的都不是真相。

基督教說:神愛世人,神的愛、神的計劃要如何顯現,世人無法得知。只要信神就能永生。

Netflix之前有一部「愛有來世」,說一個科學家證明了人死後會有下一世,但是沒法告訴人們下一世是怎樣。結果很多人自殺,後來科學家的兒子跟一位神秘美女搭渡輪去科學家的研究設施的島上,發現他們之間有很多巧合,最後因為沒法挽救後來發生的一件事,結果科學家的兒子自殺,終於明白下一世是怎樣一回事。

到現在,黃醫師也半百了,稍微瞥見了一些少小時的小故事,怎麼逐漸累積起來,最後變成現在的我,還有我努力的目標。人生的確是充滿痛苦和後悔啊!為什麼佛在維摩詰所說經中,足一觸地,顯現的人間淨土和我們看到的五濁惡世是完全不一樣的啊?一個醫師最痛苦的不外乎,為什麼已經想盡辦法,有些病人就是治不好呢?有些病人就是聽不進去建議呢?其實黃醫師自己也知道運動不足、體重過重,對身體是有負面影響的啊!但是醫師自己也說服不了自己呢!

神不是愛世人嗎?為什麼讓人充滿比不上別人的痛苦?「共同富裕」不是很好嗎?(聽了某位國家主席的口號,還蠻心動的🤣,但是⋯哈!)

高靈不是說這一世只是自己選擇的課程與體驗嗎?為什麼自己要選擇到一個這麼無力的境地?有時候覺得人生再也沒有希望了?如果選擇逃避,就會像愛有來世那樣,重新再來修正一次、百次、千次、萬次;那為什麼不自己選擇就一次做好就好?

黑鏡Black Mirror第四季有一集”Hang the DJ”能達到99.8%找到理想另一半的儀器,結果女主角很失望,約會幾百次,根本沒一次成功嘛!結果發現還是第一次笨笨的那個好,這算什麼99.8%成功率。結果其實500次成功一次就是99.8%⋯只是這個故事的500 次都是程式模擬(所以劇裡的女主角也是⋯)

最近駭客任務Matrix要出第四集了,這個說我們這個世界其實只是一台大電腦裡的虛擬實境的系列電影,之前看了不下六七次吧!難怪佛說六感感受到的不是真相呢!

說回魔鬼神探吧!第六季總結了前五季的梗,把第六季一開始就提出來的「路西法為什麼突然消失」這個謎團,最後解釋清楚了;原來就是跑來質問路西法的這位,自己選擇的人生課題啊!
為什麼路西法的地獄是對自己在人世間有所放不下的愧疚的人,一再重複這個課題的廻圈百次、千次、千萬次,直到找到答案;但是要自己找到答案,也不是那麼容易的呢!所以心理諮商師琳達這個角色是很被需要的呢!雖然她也不確定到底她諮商給的建議到底是有改變了諮商對象,還是其實只是命定的諮商對象終究會自己改變的呢?
為什麼路西法被上帝打到地獄呢?上帝不愛他嗎?完全沒讓他感到造物主的愛,又是為什麼呢?

最後,跟哈利波特一樣,讓人很難相信魔鬼神探編劇在一開始就架構了這六季的梗,但是如果是最後一季才把前面的梗兜回來,還幫忙解釋上帝為什麼沒有悲憐在世上的子女(Child of a lesser god?),還讓上面提到的「愛有來世」、「黑鏡」這兩部片的一些精髓,也一起加了進來,這也真是太有才了(拗得厲害🤣)👍👍👍

生活

終於突破14年來體重下限

經過9個月的努力與測試,今天終於看到睽違十四年的數字(再少一點)。

當然還有極大的空間尚待努力(至少一年半吧?我猜),但是至少跨出了第一步。認識我的朋友們應該知道,無數次的不同方法減重,總是像溜溜球那樣會上上下下,而且隨著食量的控制,以及大多數人採取的有氧運動達到平衝後,新陳代謝率的下降,總會導致令人沮喪的停滯期,這時就是決心和減重觀念的積烈對抗了。沒有正確的觀念與趨力,那就免不了功虧一潰的下場。

但當遇到體重難以負荷運動的時候,或是沒有時間運動的時候(雖然大多是藉口),尤其是不能太要求的老人或心肺功能下降,全身功能衰竭,但又需要減重來改善身體狀況的族群,這就限制了我們可以採取的方法。

其實我承認我意志不堅,藉口沒時間運動;但是我也有個私心,希望找到一個方法,讓這些不可能的族群,找到希望。畢竟我三年前也經歷過一段恐慌的日子。

繼續努力!

這是唯一的道路!

生活

在天堂遇見的五個人

雖然耶誕節還要上整天班,在耶誕夜裡還是又看了這部電影一遍。

10201373721559941

所有微小看似不相關的事,都有他發生的理由。

犧牲,不是失去,只是傳遞給了下一個人。

憤怒是隱忍不發的情緒累積, 仇恨是把雙面刃。原諒, let it go!

失去的愛其實從未逝去,只是轉化為另一個形式。

再平常不過的日復一日的微小貢獻, 都給了周遭人好的影響,而所有的人又把這個善擴展出去。就像一圈圈的漣漪, 我們只看到第一層,但是那無限廣大,就在那兒。

主角Eddie在天堂遇見的五個人,給了他五個人生的體驗。第二次看,又看到了些不同的東西:

愛從不會失去,只是你以為失去的愛,被另一種感官感知:回憶

每個人在世上,都和其他人有千絲萬縷的相互關係。

世界上有這麼多不同的故事,但這些故事,其實只有一個。

(這是怎樣的故事呢?)