Replies: 6 comments
-
排行榜
AI Coders Leaderboard
評估 |
Beta Was this translation helpful? Give feedback.
0 replies
-
推理/應用框架
|
Beta Was this translation helpful? Give feedback.
0 replies
-
模型
|
Beta Was this translation helpful? Give feedback.
0 replies
-
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
2023 LifeArchitect.ai data (shared), LLM Worksheet, AlpacaEval Leaderboard, MosaicML LLM Evaluation Scores & Open LLM Leaderboard, Chatbot Arena Leaderboard 內整理了近期主流的 LLM 效能評比與預訓練/微調資料集。
LLM-Perf Leaderboard 依據 Open LLM Score 與模型的記憶體需求、吞吐量等數據進行綜合性排名。
MTEB Leaderboard 比較了多個不同的 Sentence Encoder 的效能。
LLaVA & LLaMA-Adapter 使用預訓練的開源 LLM 與 vision encoder 模仿 GPT-4 具備的多模態對話能力。
MeZO 只需使用 forward 便能訓練模型,可應用在難以執行 backward 的 LLM。
GPT4All Open-source assistant-style large language models that run locally on your CPU.
LangChain Building applications with LLMs through composability
prompt 相關技術整理 https://www.promptingguide.ai/
Direct Preference Optimization 提出了比使用 RL 更加穩定快速的方式學習人類偏好的輸出。
QLoRA 使用 4-bit quantized pretrained LLM + LoRA,大幅減少記憶體需求量並達到了跟 16-bit finetuning 相當的效能。
Copy is All You Need 提出從給定的 text database 中抽取文本片段組合生成的 CoG,可以在不 finetune 的前提下透過更換 database 來變更生成的主題、風格與背景知識。
[2303.18223] A Survey of Large Language Models (arxiv.org) — Page 6
01.AI 開源了 Yi 系列模型,Yi-34 在 Open LLM Leaderboard 中取得了目前最好的表現(紀錄於 2023/11/18)
MemGPT 藉由模仿 OS 管理記憶體的方法作到無限長的對話紀錄
讓 LLM 高效運作的方法整理 https://github.com/AIoT-MLSys-Lab/Efficient-LLMs-Survey
Mixtral AI 發佈新模型 Mixtral 8x7b: replicate, (huggingface)[https://huggingface.co/mistralai/Mixtral-8x7B-v0.1]
fblgit 發布了由神秘的新方法 Uniform Neural Alignment (UNA) 微調的新模型 cybertron 與 xaberius,並在 Open LLM Leaderboard 取得了優異的成績。
QuIP: 將 LLM 量化到 2bit 的方法
Mamba: fast inference (5× higher throughput than Transformers) and linear scaling in sequence length, and its performance improves on real data up to million-length sequences.
PowerInfer 混和 GPU 與 CPU 的快速推理框架
AppAgent: Multimodal Agents as Smartphone Users: 使用 LLM 操控智慧型手機 APP 的研究
Retrieval-Augmented Generation for Large Language Models: A Survey
Introducing ASPIRE for selective prediction in LLMs: 使用兩階段訓練 LLM 對生成的回應做可性度評估來減少幻覺。 by. Google
Self-Rewarding Language Models: 在使用 DPO 微調微調 LLM 的期間也使用 LLM 自身來產出 reward,研究結果發現提出的方法讓 Llama 2 70B 的性能到達能與 GPT-4 競爭的水平。by. Meta
unsloth Finetune Mistral, Llama 2-5x faster with 50% less memory!
資料集
排行榜
量化 & 壓縮
推理/應用框架
模型
其他
持續更新
Beta Was this translation helpful? Give feedback.
All reactions