2024-11-27
深度学习
00

该文章已加密,点击 阅读全文 并输入密码后方可查看。

2024-11-27
Linux运维
00

索引向量字段

本指南将引导您完成在集合中创建和管理向量字段索引的基本操作。

概述

Milvus利用存储在索引文件中的元数据,将数据组织成一种专门的结构,从而在搜索或查询时加速所请求信息的检索。

2024-11-27
Linux运维
00

插入实体

集合中的实体是共享相同字段集的数据记录。每个数据记录中的字段值构成一个实体。本节介绍如何将实体插入到集合中。

2024-11-27
Linux运维
00

管理 Schema

本主题介绍了Milvus中的Schema。Schema用于定义集合及其中字段的属性。

2024-11-27
Linux运维
00

该文章已加密,点击 阅读全文 并输入密码后方可查看。

2024-11-26
深度学习
00

流式请求

python
展开代码
import requests import json import time def chat_completion_generator(query, timeout=50): baidu_url = 'https://llm_ip/v1/chat-messages' baidu_headers = { 'Authorization': 'Bearer app-2IdfEuDM0EwoKGVxEjC8', 'Content-Type': 'application/json' } baidu_data = { "inputs": {}, "query": query, "response_mode": "streaming", # 假设API支持streaming模式 "user": "abc-123" } try: # 设置stream=True以启用流式处理 response = requests.post(baidu_url, headers=baidu_headers, json=baidu_data, timeout=timeout, stream=True) if response.status_code == 200: # 使用迭代的方式逐步获取数据 for line in response.iter_lines(): if line: # 去除前缀 "data: " line = line.decode('utf-8').strip() if line.startswith("data:"): line = line[5:].strip() try: # 解析JSON数据 event_data = json.loads(line) # 处理不同的事件类型 event = event_data.get('event') if event == 'message': answer = event_data.get('answer', '') # 流式输出answer内容 for char in answer: print(char,end='', flush=True) time.sleep(0.05) except json.JSONDecodeError as e: print(f"Failed to decode JSON: {e}") else: print(f"Error: {response.status_code}") except Exception as e: print(f"Request failed, error: {e}") # 示例调用 query = "你能告诉我今天天气怎么样吗?" chat_completion_generator(query)
2024-11-26
深度学习
00
2024-11-26
DL论文
00

https://arxiv.org/abs/2402.12226

https://github.com/OpenMOSS/AnyGPT

我没实际测试,但我估计效果不好,这做下来工作量可是非常大的。

2024-11-26
深度学习
00

Moshi 结合了一个大规模文本 LLM(Helium)和一个小型音频语言模型,实现了语音到语音的直接理解和生成。通过分层流式架构和多流音频处理,模型首次实现了全双工对话能力(可以在边输出对话的时候,同时还在监听说话人说话,可以做到打断)。

2024-11-26
DL论文
00

https://arxiv.org/abs/2402.05755

图1:
a. SPIRIT LM架构。一个通过下一个词预测训练的语言模型;令牌通过编码器从语音或文本中提取,并通过解码器以原始模态恢复。SPIRIT LM模型在文本-only序列、语音-only序列和交替语音-文本序列的混合数据上进行训练。
b. 语音-文本交替方案。语音通过聚类语音单元(Hubert、Pitch或Style令牌)被编码为令牌(粉色),文本通过BPE编码为令牌(蓝色)。我们使用特殊令牌[T EXT]为文本加前缀,使用[S PEECH]为语音令牌。在训练过程中,模态变化在对齐的语音-文本语料库中的单词边界处随机触发。语音令牌去重后,在模态变化边界处与文本令牌交替。
c. 富表现语音令牌。对于SPIRIT LM EXPRESSIVE,音高令牌和风格令牌在去重后交替排列。

贡献包括以下几点:

(i) 我们提出了 SPIRIT LM,这是一种单一的语言模型,能够生成语音和文本。SPIRIT LM 基于持续预训练的 LLaMA 2,并通过交替的语音和文本数据进行训练。
(ii) 类似于文本 LLM,我们发现 SPIRIT LM 可以在文本、语音和跨模态设置(即语音到文本和文本到语音)中通过少样本学习新任务。
(iii) 为了评估生成模型的表现力,我们引入了语音-文本情感保留基准(SPIRIT-TEXT SENTIMENT PRESERVATION,简称 STSP),该基准衡量生成模型在语音和文本的同模态和跨模态条件下,保持情感的一致性。
(iv) 我们提出了 SPIRIT LM 的表现力版本(SPIRIT LM EXPRESSIVE)。通过 STSP,我们展示了 SPIRIT LM 是首个能够在文本和语音提示的同模态与跨模态之间保持情感一致性的语言模型。
(v) 最后,我们量化了模型在生成过程中可能增加的有害内容,无论是在语音还是文本中。如同所有预训练基础模型(Bender 等,2021;Solaiman 等,2023),SPIRIT LM 也可能生成有害内容。因此,所有使用我们工作的面向用户的应用程序应当整合必要的安全性测试,并进行安全指令微调以满足安全标准(Touvron 等,2023b)。