Flux Kontext 安装模型1huggingface-cli download black-forest-labs/FLUX.1-Kontext-dev flux1-kontext-dev.safetensors --local-dir ./diffusion_models 提示词编辑元素 change A to B change the cake to an apple change the color 2025-07-14 #Flux #kontext
HuggingFace 官网 quick-starthuggingface-cli 文档 123456789101112131415161718192021222324# 安装pip install huggingface_hub# 登录huggingface-cli login# 配置镜像export HF_ENDPOINT=https://hf-mirror.comexport HF_ENDPOINT=https:/ 2025-07-14
pnpm - 笔记 安装123npm i -g pnpmbrew install pnpmcurl -fsSL https://get.pnpm.io/install.sh | sh - CLI npm命令 pnpm等效 npm install pnpm install npm i <pkg> pnpm add <pkg> npm run <cmd> pnpm 2025-07-04 #pnpm #npm #yarn
Python - 笔记 虚拟环境123456# 创建python -m venv myenv# 激活source myenv/bin/activate# 退出deactivate 依赖123456pip freeze > requirements.txtpip install -r requirements.txt# 使用pipreqs生成依赖pip install pipreqspipreqs . --enco 2025-07-02 #Python
MCP 什么是 MCP(Model Context Protocol)?MCP 是一种开源协议,旨在以标准化的方式向大型语言模型(LLM)提供上下文信息。 类比理解: 可以把 MCP 想象成 AI 领域的“U盘”。我们知道,U盘可以存储各种文件,插入电脑后就能直接使用。类似地,MCP Server 上可以“插”上各种提供上下文的“插件”,LLM 可以根据需要向 MCP Server 请求这些插件,从而获 2025-07-01 #MCP #modelcontextprotocol
JS - 声明变量 在ES6出现之前,JavaScript中声明变量就只有通过 var 关键字,函数声明是通过function 关键字,而在ES6之后,声明的方式有 var、let、const、function、class ,本文主要讨论var、let和const之间的区别。 var:变量提升(无论声明在何处,都会被提至其所在作用域的顶部) function:变量提升 let:无变量提升(未到let声明时,是无 2025-07-01 #JS #变量
Initial-Git 安装1234# macbrew install git# ubuntusudo apt install git 生成公钥12345678ssh-keygen -t rsa -b 4096 -C "your.email@example.com"ssh-keygen -m PEM -t ed25519 -C "your.email@example.com"# 2025-06-30 #Git
CSS - 层级异常情况 同级元素的z-index对比规则 数值越大,层级越高 数值相同,写在后面的层级越高 数值为负,不参与层级比较 同级比较,不跨父级 默认值auto相当于z-index: 0,但不等于设置z-index为0 z-index的对比仅限于同一父元素下的直接子元素。不同父元素下的子元素比较时,会先比较父元素的 z-index 但是层叠上下文的形成条件 设置 z-index 值(非 auto)且 po 2025-06-25
Initial Conda Ubuntu安装miniconda1234mkdir -p ~/miniconda3wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~/miniconda3/miniconda.shbash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3rm 2025-06-24
RAG - Ollama + AnythingLLM 搭建本地知识库 RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与文本生成的技术框架,旨在通过动态引入外部知识库提升大语言模型(LLM)的生成质量。 RAG就像是为大型语言模型(LLM)配备了一个即时查询的“超级知识库”。这个“外挂”不仅扩大了模型的知识覆盖范围,还提高了其回答特定领域问题的准确性和时效性。 Ollamaopen-webuiAnythi 2025-06-24