Skip to content

Latest commit

 

History

History
43 lines (30 loc) · 1.67 KB

README_zh.md

File metadata and controls

43 lines (30 loc) · 1.67 KB

ThreeSensei

中文 | English

这个项目尝试利用LLM agent的思路解决临床领域的复杂推理问题,以会诊场景为例,理论上也可支持鉴别诊断、护理计划制定、风险评估等其他临床决策支持问题。

工作机制

graph TB
    A(分析相关科室) --> B(对相关科室医生分别生成人设prompt)
    B(对相关科室医生分别生成人物设定) --> C(每个虚拟医生对病历发表诊疗意见)
    C(每个虚拟医生对病历发表诊疗意见) --> D(总结所有诊疗意见)
    D(总结所有诊疗意见) --> E(每个虚拟医生对讨论结果补充建议)
    E(每个虚拟医生对诊疗意见补充建议) --> F{是否有补充建议?}
    F{是否有补充建议?} -- 无 --> H(总结病历)
    F{是否有补充建议?} -- 有 --> G(收集补充建议)
    G(收集补充建议) --> I(按补充建议改进诊疗意见)
    I(按补充建议改进诊疗意见) --> E(每个虚拟医生对讨论结果补充建议)
    H(总结病历) --> J(生成会诊报告)
Loading

使用方式

配置

支持本地模型Llama、ChatGLM、Baichuan和OpenAI API。

如果加载本地模型,在.env文件里修改MODEL_PATH为huggingface model name或本地缓存目录。

如果使用OpenAI API,在.env文件里修改OPENAI_API_TOKEN和OPENAI_MODEL_NAME。

模型精度和推理参数也在.env文件里配置。本地模型加载精度支持全精度、float16和int8。

运行

以从FILE_PATH文件加载病历数据为例,参数lang可为zh或en:

cd src
python cli.py --file_path=FILE_PATH --lang=zh

运行日志保存在log/*.log里,会诊报告结果保存在report/*.txt里。