2025年12月

反向代理设置

针对上传文件出现OpenList上传文件时提示:Request failed with status code 413的报错,文档中的说法是Nginx配置的文件大小所限制,修改Nginx的client_max_body_size就可以

我这里使用的是1Panel,默认安装的是OpenResty。其设置位置在:网站-网站-设置-性能调整-client_max_body_size。修改完成之后,需重启OpenResty。现在还是有问题,待解决。

👉 更新:Cloudflare 对经过小橙云代理的请求体大小有限制,Free 套餐为 100 MB,超过就会直接 413,所以关闭小橙云即可。

image.png

WebDAV 挂载到我的电脑

网上搜索关键词:映射网络驱动器、WebDAV等。另外,别忘了给对应用户授予权限,详见教程:https://doc.oplist.org/guide/advanced/webdav

“映射网络驱动器”按钮选项为灰色?

👉 需要修改注册表,网上搜索有详细教程,总结如下:

reg delete "HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\Explorer" /v NoNetConnectDisconnect /f
reg delete "HKCU\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\Explorer" /v NoNetConnectDisconnect /f

https://github.com/Termix-SSH/Termix
https://github.com/users/lukegus/packages/container/package/termix

docker pull ghcr.io/lukegus/termix:dev-1.10.0

优点

  • 自建隐私性强,云端存储信息,随时用浏览器登录即可使用。
  • 可以固定用服务器直连,排除本地 SSH 环境不一致的影响。

缺点

  • 输入有点延迟,不丝滑。
  • 复制粘贴稍微有点麻烦,不如 Termius 好用:选中自动复制、右键粘贴。

Step 1. 进入 DNS 解析配置页面

添加 CNAME,将 子域名 解析到 www.shopify.com,关闭小橙云,完成优选域名的添加。
其他 Cloudflare 优选域名请自行搜索,如 www.visa.com

Step 2. 进入 Workers 项目

打开一个项目,进入 设置 - 域和路由 - 添加 - 路由,填上形如 子域名.example.com/*

Step 3. 查看最终效果

从测速网站上可见,已经成功加速了 Workers 项目的访问速度。
 2025-12-26 093106.png

steam

bilibili

总结

Clooudflare 2025年度报告说起,2025年也是过得好快啊,开始“坐班式”地进行工作,感觉是“匆匆忙忙”的一年。

现在突然去回想的话,最初的记忆应该来自于 3 月份,刚开始去柳州出差了 8 天,吃了几次螺蛳粉。然后就是每个月平均都会出差一次,去了不少地方。在德阳,上了高铁的铁路桥,算是比较印象深刻的,为了赶高铁空窗期,熬了个通宵。在成都、北京、哈尔滨还见了几位老朋友。在北京是跟着无穷小亮的视频逛的,有些没去过的地方也逛了一下,但是越来越不喜欢特种兵式徒步,有点累。

上半年时候,从 5 月份开始,参加了武汉渡江节大众组的选拔。5–7 月在东湖听涛景区参加了 8 次长距离的蛙泳训练,平均都是1500 米以上,作为小卡拉米,刚开始实在是有点霸王硬上弓了,最后成功横渡长江,算是一个不错的人生体验。有一次训练的时候下着小雨,东湖刮着风,有好大的浪,还是挺惊险的。整个过程也没认识什么朋友,倒是见识了 50、60 岁依然热爱游泳的一群人。最大的感受是:锻炼身体是一辈子的事,身体健康比什么都重要。参加完这次活动之后,现在去游泳都有点佛系了,主要还是以活动身体为主,再也不想搞那么极限了,怕自己失去兴趣。

今年 10 月份,乃至更早一点,开始接触 AI 编程和 Linux 方面的知识。最开始是 Github 的学生优惠里的 Copilot,以它为主要工具,写了项目的 FPGA 程序。后面了解了 Claude 和 Codex,不过暂时已经需求不大了,主要搞一些简单的 HTML。再后面,购买了域名。时至今日,在 AI 的帮助下,搭建了一些小网站,还了解了一些新的软件知识,还是挺有意思的。包括去年买的泰山派,一直吃灰,今年也玩上了。今年 AI 进步也是很大,国产的也有很多不错的模型,比如 MiniMax-M2。后面想去了解下 Docker 之类的吧,还想系统地了解一下搭建网站的工具。

想到什么再补充吧,最近有点困顿。

mmexport1749870763928.jpg

大概是几十天前,我在查询 whois 时发现, SixHz.com 的前任主人已经不再续费了,但域名还没开放购买。于是把相关信息发给 AI,问了下大致的释放时间。从那之后,就会偶尔搜一下,看看能不能买到。

这个世界上,有些事情可遇不可求,而这一次我很幸运,今天终于蹲到了。

域名是在 Cloudflare 购买的,价格是 10.46 美元 / 年。

顺手查了下历史,这个域名之前被用作 Go 组件托管地址 sixhz.com/szamlazzhu,似乎和匈牙利的发票业务有关,还挺有意思的。

关键词:MIUI13;小米手机;红米手机;广电流量卡;广电卡;广电流量

最近办了张广电流量卡插入 MIUI13 中,可以打电话,但是开启数据流量没有网。

解决办法:设置中搜索 APN,点击 cbnet,下滑找到 MNC 改为 15,其他不动,退出并保存。

想到一个问题:如果有一天我不再更新博客,甚至不再使用原本的服务器,这些博客内容会怎样?经过实测,如果网站不能访问,搜索引擎会在短时间内检测到并“下架”。而我想让它们继续被看见,让它们独立于服务器依赖而存在。

于是就有了这个小项目:一个用 Python + wget 做的极简博客镜像工具,可以把你的 Typecho(或其他兼容的博客)抓成一套完整的、可直接部署的静态网站。

✨ 它能做什么?

  • 一个用 uv 管理的 Python 小工具,用 wget 把 博客 抓成可直接部署的静态站点。
  • 典型用法:把 Typecho 网站静态页面部分爬虫,其他网站自行测试。

    • 只抓公开页面(文章、分页、分类、归档、作者页、主题资源等),排除后台登录、新增评论等功能。
    • 输出目录为 ./site/,可以直接推送到 Cloudflare Pages / GitHub Pages。
    • 抓取后会重写所有站内链接为本地相对路径,确保离线可用。
    • 针对 img src图片类资源也会保存并重写为本地相对链接,确保离线可用。
  • 每次镜像前都会先 --spider 探活;镜像在 site_tmp/ 完成后替换 site/,探活或下载失败都会保留旧的 site/ 不被清空。
  • 本项目由 AI 10分钟完成,又压力 AI 改细节。

换句话说:你的博客在任何地方都能继续「活着」。

🛠️ 怎么用?

  • 环境需求:Python 3.9+,推荐用 uv 管理项目。
  • 需本地安装 wget.exe
    添加环境变量;也可以将 wget.exe 放在同文件夹下tools/mingw64/bin/
  • 先探活,再在空的 site_tmp/ 抓取,成功后替换 site/
    uv run python mirror.py
  • 先探活,再把已有 site/ 复制到 site_tmp/ 增量抓取
    uv run python mirror.py --no-clean
  • 试跑探活(只检查不下载):
    uv run python mirror.py --spider
  • 自定义目标站点和输出目录,用于抓取其他博客:
    uv run python mirror.py --url https://example.com/ --output-dir my_site

🐍 Python 代码

"""
The script prefers the bundled wget on Windows (tools/mingw64/bin/wget.exe),
and uses the system wget on Linux/macOS, falling back to the bundled version
when system wget is unavailable. Output defaults to ./site and can be cleaned
before each run.
"""

from __future__ import annotations

import argparse
import hashlib
import os
import platform
import re
import shutil
import subprocess
import sys
from pathlib import Path
from typing import Iterable, List
from urllib.error import URLError
from urllib.parse import urlsplit
from urllib.request import urlopen


DEFAULT_URL = "https://blog.example.com/"
DEFAULT_OUTPUT_DIR = "site"
REJECT_REGEX = r"/(admin|login|register|action|feed)/"


def project_root() -> Path:
    """Return the directory containing this script."""
    return Path(__file__).resolve().parent


def resolve_output_dir(root: Path, output_dir: str) -> Path:
    """Resolve and validate the output directory inside the project root."""
    target = (root / output_dir).resolve()
    try:
        target.relative_to(root)
    except ValueError as exc:
        raise ValueError("Output directory must stay under the project root") from exc
    return target


def temp_output_dir(output_dir: Path) -> Path:
    """Derive a temporary output directory alongside the final output."""
    return output_dir.with_name(f"{output_dir.name}_tmp")


def bundled_wget_path(root: Path) -> Path:
    """Path to the repository-bundled wget executable."""
    return root / "tools" / "mingw64" / "bin" / "wget.exe"


def find_wget(root: Path) -> Path:
    """Pick the appropriate wget executable."""
    system_name = platform.system().lower()
    bundled = bundled_wget_path(root)
    system_wget = shutil.which("wget")

    if system_name == "windows":
        if bundled.exists():
            return bundled
        if system_wget:
            return Path(system_wget)
        raise FileNotFoundError(
            "wget not found. Expected bundled wget at tools/mingw64/bin/wget.exe "
            "or a system wget in PATH."
        )

    if system_wget:
        return Path(system_wget)
    if bundled.exists():
        return bundled
    raise FileNotFoundError(
        "wget not found. Install wget or place it at tools/mingw64/bin/wget.exe."
    )


def cleanup_directory(path: Path) -> None:
    """Remove a directory tree if it exists."""
    if path.exists():
        shutil.rmtree(path)


def prepare_temp_directory(temp_dir: Path, seed_from: Path | None) -> None:
    """Create a fresh temporary directory, optionally seeded from an existing tree."""
    cleanup_directory(temp_dir)
    temp_dir.parent.mkdir(parents=True, exist_ok=True)
    if seed_from and seed_from.exists():
        shutil.copytree(seed_from, temp_dir)
    else:
        temp_dir.mkdir(parents=True, exist_ok=True)


def replace_directory(src: Path, dst: Path) -> None:
    """Replace dst with src, keeping the previous dst until replacement succeeds."""
    backup = dst.with_name(f"{dst.name}_backup")
    if backup.exists():
        shutil.rmtree(backup)

    dst.parent.mkdir(parents=True, exist_ok=True)
    dst_existed = dst.exists()
    if dst_existed:
        dst.rename(backup)

    try:
        src.rename(dst)
    except OSError:
        if dst_existed and backup.exists():
            backup.rename(dst)
        raise

    if backup.exists():
        shutil.rmtree(backup)


def build_wget_command(
    wget_path: Path, output_dir: Path, url: str, spider: bool
) -> List[str]:
    """Construct the wget command for the mirror job."""
    command: List[str] = [
        str(wget_path),
        "--mirror",
        "--convert-links",
        "--adjust-extension",
        "--page-requisites",
        "--no-parent",
        "--restrict-file-names=windows",
        f"--reject-regex={REJECT_REGEX}",
        "-P",
        str(output_dir),
        "-nH",
    ]
    if spider:
        command.append("--spider")
    command.append(url)
    return command


def stream_process_output(command: Iterable[str]) -> int:
    """Run a process and stream stdout/stderr to the console."""
    with subprocess.Popen(
        list(command),
        stdout=subprocess.PIPE,
        stderr=subprocess.STDOUT,
        text=True,
        encoding="utf-8",
        errors="replace",
    ) as proc:
        if proc.stdout:
            for line in proc.stdout:
                print(line, end="")
        return_code = proc.wait()
    return return_code


def rewrite_links_to_local(output_dir: Path, base_url: str) -> None:
    """Post-process downloaded files to point base-domain assets to local copies."""
    parsed = urlsplit(base_url)
    host = parsed.netloc
    if not host:
        return
    prefixes = {f"{scheme}://{host}" for scheme in ("http", "https")}
    prefixes.add(f"//{host}")
    pattern = re.compile(
        r"(?P<prefix>" + "|".join(re.escape(p) for p in prefixes) + r")(?P<path>/[^\s\"'>)]+)"
    )
    for file_path in output_dir.rglob("*"):
        if file_path.suffix.lower() not in {".html", ".htm", ".css", ".js"}:
            continue
        try:
            original = file_path.read_text(encoding="utf-8", errors="ignore")
        except OSError:
            continue
        changed = False

        def _replace(match: re.Match[str]) -> str:
            nonlocal changed
            url_path = match.group("path")
            local_target = (output_dir / url_path.lstrip("/")).resolve()
            if local_target.exists():
                relative = Path(
                    os.path.relpath(local_target, start=file_path.parent.resolve())
                )
                changed = True
                return str(relative).replace("\\", "/")
            return match.group(0)

        rewritten = pattern.sub(_replace, original)
        if changed:
            try:
                file_path.write_text(rewritten, encoding="utf-8")
            except OSError:
                pass


def _hash_filename(url: str, default_ext: str = ".bin") -> str:
    parsed = urlsplit(url)
    ext = Path(parsed.path).suffix or default_ext
    digest = hashlib.sha1(url.encode("utf-8", "ignore")).hexdigest()
    return f"{digest}{ext}"


def download_external_images(output_dir: Path, base_url: str) -> None:
    """Download external img/src assets and rewrite HTML to local relative paths."""
    base_host = urlsplit(base_url).netloc
    external_dir = output_dir / "external_assets"
    external_dir.mkdir(parents=True, exist_ok=True)

    img_pattern = re.compile(
        r'(<img[^>]+src=["\'])(?P<src>https?:\/\/[^"\']+)(["\'])',
        flags=re.IGNORECASE,
    )
    replacements: dict[str, Path] = {}
    html_files = [
        p for p in output_dir.rglob("*") if p.suffix.lower() in {".html", ".htm"}
    ]

    for file_path in html_files:
        try:
            content = file_path.read_text(encoding="utf-8", errors="ignore")
        except OSError:
            continue

        changed = False

        def _handle_match(match: re.Match[str]) -> str:
            nonlocal changed
            src_url = match.group("src")
            host = urlsplit(src_url).netloc
            if not host or host == base_host:
                return match.group(0)

            if src_url not in replacements:
                filename = _hash_filename(src_url, default_ext=".img")
                dest_path = external_dir / filename
                if not dest_path.exists():
                    try:
                        with urlopen(src_url, timeout=20) as resp, open(
                            dest_path, "wb"
                        ) as out_f:
                            shutil.copyfileobj(resp, out_f)
                    except (URLError, OSError):
                        return match.group(0)
                replacements[src_url] = dest_path

            dest_path = replacements[src_url]
            relative = Path(
                os.path.relpath(dest_path.resolve(), start=file_path.parent.resolve())
            )
            changed = True
            new_src = str(relative).replace("\\", "/")
            return f"{match.group(1)}{new_src}{match.group(3)}"

        rewritten = img_pattern.sub(_handle_match, content)
        if changed:
            try:
                file_path.write_text(rewritten, encoding="utf-8")
            except OSError:
                pass


def parse_args(argv: list[str] | None = None) -> argparse.Namespace:
    parser = argparse.ArgumentParser(
        description="Mirror https://blog.sixhz.com/ into a local static site directory."
    )
    parser.add_argument(
        "--url",
        default=DEFAULT_URL,
        help="Root URL to mirror (default: %(default)s)",
    )
    parser.add_argument(
        "--output-dir",
        default=DEFAULT_OUTPUT_DIR,
        help="Directory (relative to project root) to store the mirrored site (default: %(default)s)",
    )
    clean_group = parser.add_mutually_exclusive_group()
    clean_group.add_argument(
        "--clean",
        dest="clean",
        action="store_true",
        help="Start from a fresh temporary directory instead of seeding from the existing output (default).",
    )
    clean_group.add_argument(
        "--no-clean",
        dest="clean",
        action="store_false",
        help="Seed the temporary download directory from the existing output before mirroring.",
    )
    parser.set_defaults(clean=True)
    parser.add_argument(
        "--spider",
        action="store_true",
        help="Only run wget spider mode to test links without downloading files.",
    )
    return parser.parse_args(argv)


def main(argv: list[str] | None = None) -> int:
    args = parse_args(argv)
    root = project_root()
    try:
        output_dir = resolve_output_dir(root, args.output_dir)
        temp_dir = temp_output_dir(output_dir)
        output_dir.parent.mkdir(parents=True, exist_ok=True)
        temp_dir.parent.mkdir(parents=True, exist_ok=True)
        wget_path = find_wget(root)
    except (FileNotFoundError, ValueError) as exc:
        print(exc, file=sys.stderr)
        return 1

    print(f"Using wget at: {wget_path}")
    print(f"Output directory: {output_dir}")
    print(f"Temporary directory: {temp_dir}")

    # Spider-only mode remains available for manual checks.
    if args.spider:
        cleanup_directory(temp_dir)
        spider_command = build_wget_command(wget_path, temp_dir, args.url, spider=True)
        print("Running spider command:")
        print(" ".join(spider_command))
        spider_code = stream_process_output(spider_command)
        cleanup_directory(temp_dir)
        if spider_code != 0:
            print(f"Spider check failed with code {spider_code}", file=sys.stderr)
        return spider_code

    # Pre-flight: spider the site before attempting a mirror.
    cleanup_directory(temp_dir)
    spider_command = build_wget_command(wget_path, temp_dir, args.url, spider=True)
    print("Running spider check before mirroring:")
    print(" ".join(spider_command))
    spider_code = stream_process_output(spider_command)
    if spider_code != 0:
        print(
            "Skipping mirroring because spider check failed; keeping existing output.",
            file=sys.stderr,
        )
        cleanup_directory(temp_dir)
        return spider_code

    try:
        seed_source = output_dir if not args.clean else None
        prepare_temp_directory(temp_dir, seed_from=seed_source)
    except OSError as exc:
        print(f"Failed to prepare temporary directory: {exc}", file=sys.stderr)
        cleanup_directory(temp_dir)
        return 1

    mirror_command = build_wget_command(wget_path, temp_dir, args.url, spider=False)
    print("Running mirror command:")
    print(" ".join(mirror_command))

    return_code = stream_process_output(mirror_command)
    if return_code != 0:
        print(f"wget exited with code {return_code}", file=sys.stderr)
        cleanup_directory(temp_dir)
        return return_code

    # Post-process links to ensure assets point to local copies for offline deploy.
    rewrite_links_to_local(temp_dir, args.url)
    download_external_images(temp_dir, args.url)

    try:
        replace_directory(temp_dir, output_dir)
    except OSError as exc:
        print(f"Failed to replace output directory: {exc}", file=sys.stderr)
        cleanup_directory(temp_dir)
        return 1

    return return_code


if __name__ == "__main__":
    sys.exit(main())

🧩 自动任务

可以参考run_mirror.sh,借助Github,将本项目部署在服务器上,以实现自动任务。

#!/bin/bash
set -e

# 确保能找到 uv 等命令
export PATH="/root/.local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"

# 1. 到仓库目录
cd "$(dirname "$0")"

# 2. 确保是最新代码(可选)
git pull --rebase || true

# 3. 运行镜像脚本
uv run python mirror.py

# 4. 把新生成的内容加入 git
git add .

# 5. 提交(如果没有变更就跳过)
if ! git diff --cached --quiet; then
  git commit -m "chore: daily mirror $(date -Iseconds)"
  git push origin master
fi

📜 开源协议

本项目基于 GNU GPL v3,你可以自由地使用、分发、修改。

效果之强令人震撼,我国能把这样的东西做出来,确实是人才济济。未来会发展成什么样,真的不敢轻易想象,生怕自己的想象力已经不够用了。

不过,目前在操作体验上仍显得不够人性化,依旧依赖指令式语音操控,给人的感觉更像是一款技术过渡期的产品。希望最终我们真的能迎来属于自己的“贾维斯”。

影视

作品评价
无耻之徒 第十、十一季可以
黑镜 第七季可以
唐探1900一般
误杀3一般
电幻国度还可以
爱,死亡和机器人 第四季一般
疯狂的麦克斯:狂暴女神还行
最后生还者 第二季一般
百年孤独 第一季可以
鱿鱼游戏 第三季一般
哪吒之魔童闹海还可以
星期三 第二季没看完
V世代 第二季还可以
神奇4侠 初露锋芒一般
食贫道 何以当归必看
怪奇物语 第五季神了
刺杀小说家2一般
食贫道 首尔夏天看完了
辐射 第二季在看
西线无战事真实、反战

看书

书名
《百年孤独》

image.png

昨晚睡前收了一台 Cloudcone 主机,全款拿下,没有压力。

Basic System Information:
---------------------------------
Uptime     : 0 days, 9 hours, 23 minutes
Processor  : Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz
CPU cores  : 1 @ 2999.998 MHz
AES-NI     : ✔ Enabled
VM-x/AMD-V : ❌ Disabled
RAM        : 960.7 MiB
Swap       : 1023.0 MiB
Disk       : 60.0 GiB
Distro     : Debian GNU/Linux 12 (bookworm)
Kernel     : 6.1.0-31-amd64
VM Type    : KVM
IPv4/IPv6  : ✔ Online / ✔ Online

IPv6 Network Information:
---------------------------------
ISP        : Multacom Corporation
ASN        : AS35916 MULTACOM CORPORATION
Host       : Multacom Corporation
Location   : Los Angeles, California (CA)
Country    : United States

fio Disk Speed Tests (Mixed R/W 50/50) (Partition -):
---------------------------------
Block Size | 4k            (IOPS) | 64k           (IOPS)
  ------   | ---            ----  | ----           ---- 
Read       | 3.15 MB/s      (787) | 37.30 MB/s     (582)
Write      | 3.17 MB/s      (793) | 37.59 MB/s     (587)
Total      | 6.32 MB/s     (1.5k) | 74.90 MB/s    (1.1k)
           |                      |                     
Block Size | 512k          (IOPS) | 1m            (IOPS)
  ------   | ---            ----  | ----           ---- 
Read       | 66.95 MB/s     (130) | 85.06 MB/s      (83)
Write      | 70.50 MB/s     (137) | 90.72 MB/s      (88)
Total      | 137.45 MB/s    (267) | 175.78 MB/s    (171)

Geekbench 5 Benchmark Test:
---------------------------------
Test            | Value                         
                |                               
Single Core     | 581                           
Multi Core      | 588                           
Full Test       | https://browser.geekbench.com/v5/cpu/23946196

 SysBench CPU 测试 (Fast Mode, 1-Pass @ 5sec)
---------------------------------
 1 线程测试(单核)得分:          852 Scores
 SysBench 内存测试 (Fast Mode, 1-Pass @ 5sec)
---------------------------------
 单线程读测试:          17952.13 MB/s
 单线程写测试:          15587.93 MB/s