当谈到两个给我留下深刻印象的APP时,我会选择“Notability”和“Headspace”。以下是关于这两个APP的基础功能以及它们令人印象深刻的原因:
1. Notability
基础功能:
Notability是一款功能强大的笔记应用,主要用于iPad和其他iOS设备上。它允许用户创建、编辑和整理各种类型的笔记,包括手写笔记、打字笔记、录音笔记、图片、PDF文件等。用户可以通过各种颜色和工具来标记和强调笔记内容,还可以添加标签、注释和链接,使笔记更加有序和易于查找。此外,Notability还支持iCloud同步,用户可以在多台设备之间无缝同步笔记内容。
印象深刻的原因:
强大的手写识别功能:Notability的手写识别技术非常出色,能够准确地将手写笔记转换为可编辑的文本,大大提高了笔记的整理效率。
灵活的笔记组织方式:用户可以根据个人喜好和需求,通过文件夹、标签和搜索功能来组织和管理笔记,使查找和使用笔记变得更加便捷。
多样化的内容导入与导出:Notability支持导入多种格式的文件,如PDF、图片等,并可以将笔记导出为PDF、Word等格式,方便用户与他人分享或打印。
优秀的用户体验:Notability的界面设计简洁直观,操作流畅,同时提供了丰富的自定义选项,满足用户个性化需求。
2. Headspace
基础功能:
Headspace是一款专注于冥想和放松的APP,旨在帮助用户减轻压力、改善睡眠和提高专注力。它提供了多种冥想课程,涵盖了从基础入门到高级进阶的各种主题和时长。用户可以根据自己的需求和喜好选择合适的课程,并跟随专业指导进行冥想练习。此外,Headspace还提供了每日提醒、睡眠音乐和呼吸练习等功能,帮助用户更好地融入冥想生活。
印象深刻的原因:
专业的冥想指导:Headspace的冥想课程由专业导师录制,内容科学、系统,能够引导用户逐步进入冥想状态,感受身心的放松和宁静。
丰富的冥想主题:Headspace提供了多种冥想主题,如压力缓解、睡眠改善、专注力提升等,满足不同用户的需求。同时,课程时长灵活多样,方便用户根据自己的时间安排进行练习。
简洁直观的用户界面:Headspace的界面设计简洁直观,用户可以轻松找到所需的功能和课程。同时,APP的音效和动画效果也非常出色,为用户营造了一个舒适、宁静的冥想环境。
科学的数据跟踪:Headspace会记录用户的冥想数据,如练习时长、课程完成情况等,并通过数据分析帮助用户了解自己的冥想习惯和进步情况。这些数据可以作为用户调整冥想计划的参考依据。
ChatGPT 是由 OpenAI 发布的一种大语言模型,能够以问答的形式完成各类任务,包括接受文
字输入,理解自然语言,理解响应并模拟人类对话形式进行输出。再各个自然语言处理子任务具有
优异的表现。相比其他大语言模型拥有更丰富的知识,涵盖自然、社会科学、人文历史等多个领
域。ChatGPT 在 GPT3.5 的基础上引入了 RLHF(reinforcement learning from human feedback)
技术,通过将人类的日常对话的语言习惯嵌入模型,并引入价值偏好,使得模型的输出满足人类的
意图。微调过程分为预训练、监督微调、设计奖励模型和反馈优化。桑基韬等人根据 ChatGPT 的对
话对象和定位将其应用分为四个层次:数据生成器、知识挖掘器、模型调度器和人机交互界面。在
多模态领域,Visual ChatGPT、MM-ReAct 和 HuggingGPT 让视觉模型与 ChatGPT 协同工作来完成视
觉和语音任务。
除此以外,许多类 ChatGPT 的大模型也同样在自然语言处理方面展示出来了较好的效果。
LLaMA 是应该从 7billion 到 65billion 参数的语言模型,不需要求助于专有的数据集。清华大学
提出了一种基于自回归填充的通用语言模型 GLM 在整体基于 transformer 的基础上作出改动,在一
些任务的表现上优于 GPT3-175B。
大语言模型,例如 GPT 系列、LLama 系列、Gemini 系列等,在自然语言处理方面取得了显著的
成功,展示了超强的性能,但仍面临诸如幻觉、过时的知识、不可追溯的推理过程等挑战。2020
年,由 Lewis 等人引入的检索增强生成方法,通过整合来自外部数据库的知识,然后再继续回答问
题或生成文本。这个过程不仅为后续阶段提供信息,而且确保响应是基于检测到的证据的,从而显
著提高输出的准确性和相关性。在推理阶段从外部知识库动态检索信息使 RAG 能够解决诸如生成幻
觉等问题。RAG 与 LLM 的集成得到了迅速的应用,提高了自然语言处理任务的性能,并且使得模型
能够更好地利用外部知识和背景信息。
知识抽取主要分为命名实体识别和关系抽取两方面。命名实体识别(NER)任务,旨在识别与
特定语义实体类型相关联的文本跨度。该任务最早于 1991 年由 Rau 等人提出。随着信息理解、人
工智能等领域的顶级会议对 NER 任务的评测,其定义逐渐细化和完善,并逐渐成为自然语言处理
(NLP)领域的重要组成部分。然而,不同领域对实体类型的定义存在差异,因此 NER 模型的构建
取决于特定领域任务需求,通常涵盖人物信息、地点信息和组织机构信息等。对于英语、法语、西
班牙语等外语文本,通常采用单词作为基本单位,因此基于这些语言的 NER 模型主要关注单词本身。
的语义特征和上下文信息。然而,中文语料文本通常由字符构成,需要考虑字符的语义信息和词汇
特征,同时引入其他表征信息来提升模型性能,如中文分词(CWS)、语义部分标签(POS)等外部
信息,因此构建中文命名实体识别(CNER)模型更为复杂。目前,NER 任务的研究方法主要包括基
于词典和规则的方法、基于机器学习(ML)的方法以及基于深度学习(DL)的方法。
目前,联合实体和关系提取神经模型可分为参数共享和序列标注两种方式。然而,许多研究将
实体和关系的联合提取看作是序列标记问题。尽管如此,识别复杂的关系仍然是一个具有挑战性的
任务,需要进一步提高联合提取模型的性能。此外,大多数新兴的联合提取神经模型仅在英语基准
上进行了评估,其在其他语言或特定领域的有效性尚待验证。Google 机器翻译团队提出了一种包
括自注意力机制和多头注意力机制的 transformer 结构。相较于循环神经网络(RNN)或卷积神经
网络(CNN),多头注意力机制具有许多吸引人的优点。在中文命名实体识别任务中,数据集中存在
大量非结构化文本,因此需要从多个角度和多层次来提取文本本身的更多特征。近年来,多头注意
力机制在命名实体识别任务中得到了广泛应用。例如,Li 等人采用了基于自注意力机制的深度学
习模型,而 Yin 等人则提出了一种名为 ARCCNER 的模型,该模型利用 CNN 网络学习中文激进特征并
使用自我注意机制自动获取权重。尽管字符特征得到了增强,但激进级别的特征仍然难以获取,这
不仅耗费成本,而且模型性能提升有限,尚未解决 BiLSTM 网络中的信息遗忘