话题AIGC › GPT

AIGC:GPT

关联话题: ChatGPT、Claude、Qwen、Grok、豆包、kimi

大模型技术在淘宝生鲜审核场景的应用

随着多模态大模型技术的不断进步,大模型的应用范围得到了极大的扩展,其中较为重要的一个分支便是审核场景。现业务域内有较多场景需要人工进行凭证审核,这些审核工作不仅需要耗费较多的人力成本,效率上也有较大的提升空间。

OpenAI o1模型的前世今生

本文探讨了OpenAI最新推出的o1模型,该模型在复杂推理能力上取得了显著突破,特别是在STEM领域。文章详细描述了o1模型的技术路线,包括其在预训练、后训练和推理阶段的关键创新,以及这些创新如何显著提升了模型的推理能力和安全性。

92页的llama 3.1技术报告,我替你们啃下来了

作者花了半个月时间,认真读完了llama 3.1技术报告,并总结成本文,希望能帮到对这个感兴趣的小伙伴们。

豆包、kimi 这些大模型系统提示词里写了啥?(一)

大模型系统提示词全解析(Prompt合集)。

B站开源长文本大模型:我很小但很能“装”

Index-1.9B-32K 是一个拥有 1.9B (19亿)参数并具备 32K 上下文长度的语言模型。

Using ChatGPT to reverse engineer minified JavaScript

I was curious about how a component was implemented in a minified JavaScript file and used ChatGPT to reverse engineer the component.

如何用Prompt技巧激发无限创意

本文深入探讨当前最前沿的prompt engineering方案,结合OpenAI、Anthropic和Google等大模型公司的资料,以及开源社区中宝贵的prompt技巧分享,全面解析这一领域的实践策略。

GraphRAG + GPT-4o mini 低成本构建 AI 图谱知识库

简单来说,RAG(Retrieval-Augmented Generation,检索增强生成) 的工作原理是将大型文档分割成多个小段落或片段。主要原因是,大语言模型的上下文窗口长度有限,无法一次处理超过上下文窗口长度的信息。

当我提出一个问题时,RAG 技术可以先从这些片段中检索相关信息,根据我提问的内容与这些片段的相似度,找出若干个与问题相关的片段,组合成一个上下文,然后将这些信息,连同我的提问一起输入到大语言模型中,然后期待大语言模型「更为精准」的回答。

一文搞懂大模型!基础知识、 LLM 应用、 RAG 、 Agent 与未来发展

本文将带你走进 LLM 的世界,从入门知识到实际应用,全方位解读这个充满魔力的“大模型”。

Building a ChatGPT Plugin for Medium

MediumGPT是ChatGPT的插件,它解决了ChatGPT无法访问互联网和更新内容的问题。插件的API使得ChatGPT能够获取和操作Medium的内容。插件的调试验证了ChatGPT对插件API的理解,并可以通过询问特定问题触发插件功能。插件的链式查询功能也被证明有效,可以根据用户的查询获取相关文章和主题的最新内容。插件还可以暴露更多的API,为ChatGPT提供更多功能和信息。虽然目前还不清楚插件的具体用途,但使用它进行建立和操作是一种有趣的体验。

大模型技术及趋势总结

本篇文章希望帮助大家对大模型的本质、技术和发展趋势有简单的了解。

跟着ChatGPT4o学全栈,我看到未来“学习”的模样

本文作者用一个GPT4o学习全栈的例子来阐述大模型对学习的影响,以及对于未来学习的思考。

Junit4遇上chatGPT

这是一篇适合Java工程师体质的AI开发教程。

CI+GPT双引擎驱动,开启AI代码评审新纪元

代码评审的未来:AI技术如何显著优化研发效率并提升代码质量?

类 ChatGpt 多行文本打字效果

GPT 吐字动画?利用这个技巧简直绝了!

震撼科技界的GPT-4o发布首日即遭“越狱破防”

OpenAI最新推出的大型模型GPT-4o可能存在的越狱风险。

- 위키
Copyright © 2011-2024 iteam. Current version is 2.137.3. UTC+08:00, 2024-12-17 03:42
浙ICP备14020137号-1 $방문자$