Dsaco
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于

Flux Kontext

安装模型1huggingface-cli download black-forest-labs/FLUX.1-Kontext-dev flux1-kontext-dev.safetensors --local-dir ./diffusion_models 提示词编辑元素 change A to B change the cake to an apple change the color
2025-07-14
#Flux #kontext

HuggingFace

官网 quick-starthuggingface-cli 文档 123456789101112131415161718192021222324# 安装pip install huggingface_hub# 登录huggingface-cli login# 配置镜像export HF_ENDPOINT=https://hf-mirror.comexport HF_ENDPOINT=https:/
2025-07-14

pnpm - 笔记

安装123npm i -g pnpmbrew install pnpmcurl -fsSL https://get.pnpm.io/install.sh | sh - CLI npm命令 pnpm等效 npm install pnpm install npm i <pkg> pnpm add <pkg> npm run <cmd> pnpm
2025-07-04
#pnpm #npm #yarn

Python - 笔记

虚拟环境123456# 创建python -m venv myenv# 激活source myenv/bin/activate# 退出deactivate 依赖123456pip freeze > requirements.txtpip install -r requirements.txt# 使用pipreqs生成依赖pip install pipreqspipreqs . --enco
2025-07-02
#Python

MCP

什么是 MCP(Model Context Protocol)?MCP 是一种开源协议,旨在以标准化的方式向大型语言模型(LLM)提供上下文信息。 类比理解: 可以把 MCP 想象成 AI 领域的“U盘”。我们知道,U盘可以存储各种文件,插入电脑后就能直接使用。类似地,MCP Server 上可以“插”上各种提供上下文的“插件”,LLM 可以根据需要向 MCP Server 请求这些插件,从而获
2025-07-01
#MCP #modelcontextprotocol

JS - 声明变量

在ES6出现之前,JavaScript中声明变量就只有通过 var 关键字,函数声明是通过function 关键字,而在ES6之后,声明的方式有 var、let、const、function、class ,本文主要讨论var、let和const之间的区别。 var:变量提升(无论声明在何处,都会被提至其所在作用域的顶部) function:变量提升 let:无变量提升(未到let声明时,是无
2025-07-01
#JS #变量

Initial-Git

安装1234# macbrew install git# ubuntusudo apt install git 生成公钥12345678ssh-keygen -t rsa -b 4096 -C "your.email@example.com"ssh-keygen -m PEM -t ed25519 -C "your.email@example.com"#
2025-06-30
#Git

CSS - 层级异常情况

同级元素的z-index对比规则 数值越大,层级越高 数值相同,写在后面的层级越高 数值为负,不参与层级比较 同级比较,不跨父级 默认值auto相当于z-index: 0,但不等于设置z-index为0 z-index的对比仅限于同一父元素下的直接子元素‌。不同父元素下的子元素比较时,会先比较父元素的 z-index 但是层叠上下文的形成条件 设置 z-index 值(非 auto)且 po
2025-06-25

Initial Conda

Ubuntu安装miniconda1234mkdir -p ~/miniconda3wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~/miniconda3/miniconda.shbash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3rm
2025-06-24

RAG - Ollama + AnythingLLM 搭建本地知识库

RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索与文本生成的技术框架,旨在通过动态引入外部知识库提升大语言模型(LLM)的生成质量。 RAG就像是为大型语言模型(LLM)配备了一个即时查询的“超级知识库”。这个“外挂”不仅扩大了模型的知识覆盖范围,还提高了其回答特定领域问题的准确性和时效性。 Ollamaopen-webuiAnythi
2025-06-24
123

搜索

Hexo Fluid