0%

LangChain

    LangChain 是一个高级框架,旨在简化在复杂系统中构建语言模型应用的过程。它基于自然语言处理(NLP)技术,并将其与链式推理结合,从而允许开发者创建可以进行多步信息处理的应用程序。这种框架支持多种语言模型和API,让开发人员能够链接不同的语言服务,例如翻译、摘要、问题回答等,以构建出更加智能和多功能的语言处理工具。LangChain的设计哲学强调的是模块化和可插拔性,从而支持快速迭代和灵活性。

    通俗点说:想象一下有一座大型的语言工厂,里面有许多不同的机器,每个机器都能做一项专门的事情,比如有的能帮你写作,有的能帮你解答问题,还有的能帮你把一种语言翻译成另一种语言。LangChain就像是管理这座工厂的操作系统,它帮助人们把这些机器连接起来,让它们协同工作,从而完成各种复杂的任务。这样,开发者就能更容易地使用这些强大的语言机器,创造出各种各样的应用程序,帮助我们解决生活中的问题。

ModelScope

    ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

Streamlit

    Streamlit 是一个用于构建数据科学和机器学习应用程序的开源 Python 库。它旨在使开发人员能够以简单快速的方式构建交互式应用程序,无需繁琐的前端开发。Streamlit 提供了一组简单的 API,可用于创建具有数据探索、可视化和交互功能的应用程序。只需要通过简单的 Python 脚本就可以创建一个 Web 应用程序。可以利用 Streamlit 的丰富组件库来构建用户界面,例如文本框、滑块、下拉菜单和按钮,以及可视化组件,例如图表和地图。

LLM模型

什么是LLM大语言模型?Large Language Model,从量变到质变

大语言模型(英文:Large Language Model,缩写LLM),也称大型语言模型,是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。

阅读全文 »

  1. nvidia-smi: 显示当前系统上Nvidia GPU的状态,包括设备的使用情况、显存使用情况、功耗等信息。使用该命令可以查看GPU的状态,例如GPU的使用率、显存占用率、功耗等信息,以及GPU的温度、风扇转速等参数。

  1. nvidia-smi -l 1:间隔1秒刷新GPU信息
  2. nvidia-smi -l:间隔几秒刷新GPU信息
  3. nvidia-smi -L: 显示当前系统上所有Nvidia GPU设备的信息。使用该命令可以查看当前系统上所有的Nvidia GPU设备的信息,包括设备的名称、索引、总显存大小等。

  1. nvidia-smi dmon: 显示GPU设备的显存使用情况和GPU的繁忙度。使用该命令可以实时监测GPU的显存使用情况和GPU的繁忙度,并以文本形式输出。

  1. nvidia-smi -q: 显示GPU的详细信息,包括硬件规格、驱动版本、显存信息、功耗管理、温度控制、GPU拓扑结构等信息。使用该命令可以了解GPU的硬件配置、驱动版本、显存大小、功耗管理策略、温度控制策略等信息,以及GPU的连接关系、拓扑结构等信息。

  2. nvidia-smi -i [device_index] -q: 显示指定GPU设备的详细信息。使用该命令可以查看指定GPU设备的详细信息,例如该设备的硬件规格、驱动版本、显存信息、功耗管理、温度控制等信息。

  3. nvidia-smi --query-gpu=name,temperature.gpu,utilization.gpu,memory.total,memory.used,memory.free --format=csv: 显示当前系统上所有Nvidia GPU设备的使用情况,并输出到CSV文件中,方便后续分析。使用该命令可以显示当前系统上所有Nvidia GPU设备的使用情况,例如GPU的温度、利用率、显存使用情况等信息,并将信息输出到CSV文件中,方便后续分析。

  4. nvidia-settings: 显示GPU设备的详细配置信息,包括显卡型号、GPU核心时钟、内存时钟、电压等信息。使用该命令可以配置GPU设备的参数,例如GPU的核心时钟、内存时钟、电压等参数。

  5. nvidia-smi -i [device_index] -e 0x20: 显示指定GPU设备的ECC错误日志。使用该命令可以查看指定GPU设备的ECC错误日志,以帮助排查硬件问题。

  6. nvidia-smi topo -m: 显示GPU拓扑结构和连接关系,可用于识别GPU间连接的带宽和延迟等信息。使用该命令可以了解GPU设备之间的连接关系和拓扑结构,以及GPU设备之间的带宽和延迟等信息。

备份

1
mongodump --db mydb --out mydb_backup

恢复

1
mongorestore --db mydb mydb_backup/mydb

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
# 显示有关Conda安装的信息,例如版本号和各个目录的路径。
conda info
# 列出当前环境中安装的所有软件包。
conda list
# 列出所有的虚拟环境
conda env list
# 创建虚拟环境
conda create
# 创建一个名为myenv的环境,并且Python版本为3.8。
conda create -n myenv python=3.8
# 激活虚拟环境
conda activate myenv
# 停用当前的Conda环境并返回基本环境。
conda deactivate
# 将在当前环境中安装NumPy软件包。
conda install numpy
# 更新NumPy软件包到最新版本。
conda update numpy
# 从当前环境中移除NumPy软件包。
conda remove numpy
# 搜索可在Conda通道中安装的软件包。
conda search
# 删除名为myenv的环境
conda env remove -n myenv