登录
主页
 文章
开源搜索引擎是指搜索引擎的源代码是公开可用的,允许用户自由地使用、修改和分发的搜索引擎。一、优缺点1.优点 高度可定制性:由于源代码开放,用户可以根据自身特定需求对搜索引擎的功能、算法、界面等进行深度定制。例如,企业可以针对自己的业务领域和数据特点,修改搜索算法,使其更精准地匹配和检索相关信息,以满足内部员工查找资料或面向客户的搜索服务需求。
623
3
6
● Neural Foundry:自适应人工智能智能机器人● Focoos AI:即用型神经网络● ReSim.ai:人工智能测试平台● Meraker:人工智能传感器技术● Resmonics:用于呼吸症状检测的人工智能传感器● Garda - Tech:商用厨房电器智能监控● BROSWARM:地雷探测技术● Dropla:基于无人机的未爆弹药探测
794
7
10
知识推理是从已有的知识出发,运用逻辑规则、推理算法等手段,推导出新的知识或结论的过程,在人工智能、知识图谱、数据挖掘等多个领域都有重要应用。知识推理的目的是获取新知识。通过对已掌握的知识进行分析、推导,发现隐藏在数据和知识中的新信息,扩展知识边界。例如,在医疗领域,根据患者的症状、检查结果以及已有的医学知识,推理出可能患有的疾病及潜在的并发症,从而为诊断和治疗提供更多依据。
1130
5
2
多跳知识推理是一种在知识图谱等知识表示结构上进行的复杂推理方式,通过多个步骤或“跳跃”来推断出隐含的知识或关系。多跳知识推理是指在知识图谱中,从一个或多个已知的节点(实体)出发,通过沿着多条边(关系)进行多次跳转,利用多个相关的知识片段,来推导出新的知识或结论的过程。例如,在一个包含人物、电影、导演等信息的知识图谱中,已知“演员A出演了电影B”以及“电影B的导演是C”,通过这两条信息的“跳跃”,可以推理出“演员A和导演C有合作关系”。
502
9
14
OpenAI于2024年12月20日发布了人工智能“推理”模型o3-mini,并于2025年2月1日在ChatGPT和API中正式上线。人工智能 “推理” 模型是一类能够模拟人类推理过程,对输入信息进行分析、判断和决策的智能模型。o3-mini模型会展开事实核查,可规避一些常见的模型陷阱,但会产生响应延迟,通常为几秒到几分钟。使用 “私人思想链” 进行 “思考”,能在响应前暂停,考虑相关提示并解释推理过程,最终总结出最准确的答案。可调整推理时间,有低、中、高三种计算级别,计算级别越高,任务执行性能越好。在软件工程能力测评中准确度得分 71.7%。在 2024 年 AIME 数学竞赛题目测试中准确度得分为 96.7%。以 100% 为最高分的 ARC-AGI 评估结果显示,最低成绩为 75.7%,最高成绩为 87.5%
762
0
13
DeepSeek应用稀疏动态架构(Sparse Dynamic Architecture)是其大模型技术的核心创新点。大模型稀疏动态架构是一种用于构建大规模人工智能模型的先进架构,整体提高了模型的效率、灵活性和性能。一、发展历程1.早期探索阶段 起源基础:20世纪8090年代的早期机器学习主要集中在决策树、SVM、KNN等经典算法,模型规模小,依赖手工特征。之后在2006年Geoffrey Hinton提出逐层无监督预训练缓解深层网络训练难题,为深度学习发展奠定基础。
933
3
10
近年来,大语言模型(LLM)在自然语言处理领域取得了突破性进展,凭借其强大的语言理解和生成能力,在各种NLP任务中展现出惊人的性能。传统的基于下一个token预测的训练方法虽简单有效,但在获取语言、世界知识和推理能力方面效率不高。且这种方法使模型过于关注局部模式,忽视了“困难”的决策,导致当前先进的下一个token预测器需要比人类儿童多几个数量级的数据才能达到相同的语言水平。
823
2
0
kotaemon由Cinnamon开发开源,提供了一个干净且自定义的RAG用户界面,通过与文档的聊天功能,帮助用户进行问答。兼容多种LLM API供应商,包括OpenAI、Azure OpenAI和Cohere,以及本地模型。支持多用户登录,允许用户将文件组织成公共或私有集合并进行共享,能够处理包括图形和表格在内的多种文档格式,支持多模式文件解析。适用于需要进行文档问答的终端用户,以及希望构建自己的RAG管道的开发者。
794
5
9
强化学习从人类反馈(Reinforcement Learning from Human Feedback,RLHF)是一种将人类反馈融入机器学习模型训练的技术。通过将人类的偏好、评价或直接指导等反馈作为奖励信号,训练奖励模型,再利用该奖励模型通过强化学习来优化智能体的策略,使智能体的行为与人类期望和偏好保持一致。
664
0
7
基于强化学习(Reinforcement Learning)的自主思考模型通过纯强化学习训练模型,让AI能够自己去发现问题的解决方案,避开了传统数据集依赖带来的“脆弱性”,使AI模型能够更加自主地推理和解决问题,提高了模型的泛化能力和适应性。它能够通过与环境进行交互,不断学习和优化自己的行为策略,以实现特定的目标。
776
4
14
JamAIBase集成了嵌入式数据库(SQLite)和嵌入式矢量数据库(LanceDB),具有托管内存和RAG功能。内置LLM、矢量嵌入以及重新排序器编排和管理功能,所有这些都可以通过方便、直观、类似电子表格的UI和简单的REST API访问。支持任何LLM,可结合基于关键字的搜索、结构化搜索和矢量搜索以获得最佳结果。适合不同技术水平的用户进行数据操作和管理,尤其适合需要利用先进的AI能力进行数据处理和分析的用户。
666
1
14
有监督学习、无监督学习和强化学习是人工智能中机器学习的三种重要学习方式,它们在定义、数据要求、学习目标、应用场景等方面存在明显差异。一、定义有监督学习 是一种机器学习方法,其中训练数据集中的每个样本都包含输入特征和对应的输出标签(目标值)。模型通过学习这些输入特征与输出标签之间的映射关系,来对新的未知数据进行预测。例如,在图像分类任务中,输入特征是图像的像素值,输出标签是图像所属的类别。有监督学习广泛应用于预测、分类和回归等任务。
741
8
5
人工智能有监督学习(Supervised Learning in Artificial Intelligence)是一种重要的机器学习方法,有监督学习是指利用标记好的训练数据来训练模型,让模型学习输入特征与输出标签之间的映射关系,从而能够对新的、未见过的数据进行预测和分类的机器学习技术。在有监督学习中,训练数据集中的每个样本都包含输入特征和对应的输出标签(也称为目标值或真实值),模型通过学习这些样本的特征和标签之间的关系,来构建一个能够对新数据进行准确预测的函数。
1035
3
10
MindSpore是华为推出的一款全场景深度学习开源框架。旨在实现不同计算平台(如云端、边缘端、端侧)和不同硬件(如CPU、GPU、Ascend等)之间的高效协同。无论是在数据中心的大规模计算,还是在手机、物联网设备等资源受限的终端上,MindSpore都能灵活适配,充分发挥各硬件平台的性能优势,实现模型的高效训练和推理。
1184
1
8
人工智能训练技术(Artificial Intelligence Training Techniques)在推动人工智能发展、实现各种智能应用等方面发挥着至关重要的作用。通过大量的数据和合适的训练技术,模型能够学习到数据中的复杂模式和规律,从而提高对未知数据的预测和判断准确性。例如在图像识别中,经过充分训练的卷积神经网络可以准确识别各种物体,在医疗影像诊断中帮助医生更准确地发现病变。训练技术能够让模型在不同的数据集和实际应用场景中都保持较好的性能表现,避免过拟合。例如在自然语言处理中,经过多轮训练和优化的语言模型可以理解和处理各种不同风格、主题的文本。
681
9
2
人工智能学习入门可以从了解基础知识、掌握编程语言、熟悉工具框架、实践项目操作等方面入手。一、学习基础知识1.数学基础:人工智能涉及大量的数学知识,主要包括线性代数,如矩阵运算、向量空间等,它是理解神经网络等模型的基础;概率论与数理统计,如概率分布、贝叶斯定理等,用于处理数据中的不确定性;还有微积分,如导数、梯度等,在优化算法中起着关键作用。可以通过阅读《线性代数导论》《概率论与数理统计》《微积分》等经典教材来学习。
570
1
3
无监督预训练(Unsupervised Pretraining)是一种机器学习技术,旨在让人工智能模型在没有人工标注数据的情况下,自动从大量原始数据中学习到通用的特征和模式。无监督预训练的核心是让模型自主地从数据中发现规律和结构。例如,在处理大量文本数据时,模型会自动识别词与词之间的共现关系、句子的结构模式等;在处理图像数据时,会自动学习图像的边缘、纹理等基本特征。
727
9
14
FP8混合精度训练(FP8 mixed precision training)是一种在深度学习训练中采用的技术,旨在提高训练效率和降低计算成本,同时保持模型精度。采用FP8低精度训练技术,同时结合其他精度的数字表示进行混合精度训练。这样可以在保证计算速度的同时,降低通信开销,减少模型训练过程中的内存占用和计算量,提高训练效率,使得在有限的硬件资源下能够更快地训练大规模的模型。
622
8
9
混合专家架构(Mixture of Experts,MoE)混合专家架构是一种将多个专门的子模型(称为“专家”)组合在一起的机器学习架构,通过一个门控网络来动态地决定在处理每个输入时应该使用哪些专家,从而利用多个专家的优势来处理复杂的任务,提高模型的性能和泛化能力。通过多个专家网络来处理不同的任务或特征,每个token可以激活不同的专家,模型能够根据输入的特点动态地选择合适的专家进行处理,提高了模型的灵活性和表达能力,同时在保证性能的前提下,降低了模型的计算成本和参数规模。
631
4
6
多头潜在注意力机制(Multi-Head Latent Attention,MLA)相比传统的注意力机制,它能让模型在训练时同时预测更远位置的token,增强了对未来的感知能力,有助于模型更好地捕捉文本中的长距离依赖关系,提升对语义的理解和生成能力。MLA是在传统注意力机制基础上发展而来的一种改进型注意力机制。它的核心思想是通过多个头(head)的并行计算,让模型能够同时关注文本中不同位置和不同语义层面的信息,从而更全面、更深入地捕捉文本中的长距离依赖关系和复杂语义结构。每个头都可以看作是一个独立的注意力单元,能够学习到不同的特征或模式,最后将多个头的结果进行融合,得到更丰富、更具表现力的特征表示。
1041
8
2
- -
© 2021 - 现在 杭州极深数据有限公司 版权所有 (深数据® DEEPDATA® 极深®) 联系我们 
浙公网安备 33018302001059号  浙ICP备18026513号-1号