话题AIGC › ChatGPT

AIGC:ChatGPT

Bye Bye Bye...: Evolution of repeated token attacks on ChatGPT models

Building on prior prompt injection research, we recently discovered a new training data extraction vulnerability involving OpenAI’s chat completion models.

ChatGPT帮你爆改简历,拿下心仪offer

找工作,职业生涯里亘古不变的话题,无论是“裁员大潮”的来临,还是金

深入探讨GPTs和AI Assistant

GPTs 有着简单易用的前端交互,可以很快速地方便小白用户快速搭建 AI 助手,可以快速地验证方案和效果,并且可以很快速的在 GPTs 的商店中进行分享。

然而, Assistant API 需要通过API的方式进行操作,虽然可以使用 Assistant API 的 Assistant playground 进行配置使用,但是其主要的目的还是为开发者提供一个API 方式,方便开发者可以在在自己的应用中,快速集成这些能力。

哥伦布即时设计平台ChatGPT落地实践

本文介绍了ChatGPT在哥伦布即时设计平台应用以及实现原理,通过设计ChatGPT交互DSL、Prompt与Function实现Ai智能交互、提高平台搭建效率。

以效率为导向:用ChatGPT和HttpRunner实现敏捷自动化测试(二)

本文将详细介绍软件测试工程师如何结合ChatGPT和HttpRunner框架实现敏捷自动化测试。具体介绍了如何通过在web前端录制业务操作、使用命令生成自动化脚本,并通过批量更改和调试来实现自动化测试。

利用ChatGPT提升测试工作效率——测试工程师的新利器(一)

本文探讨了在测试工作中如何应用ChatGPT来提升效率。通过与ChatGPT进行人机对话,软件测试工程师可以进行提效,包括需求分析、测试用例编写、缺陷报告和自动化测试脚本生成等方面。

GPT-4助力数据分析:提升效率与洞察力的未来关键技术

传统的数据分析方法往往无法满足日益增长的数据分析需求的数量和复杂性。而ChatGPT-4作为一种先进的自然语言处理技术,能助力企业和组织更高效地挖掘数据价值。本文将探讨ChatGPT-4在数据分析中的应用及该技术提高数据分析的效率和洞察力。

基于Fuzzing和ChatGPT结合的AI自动化测试实践

自动化测试是测试活动中常见的一种质量保障手段,结合Fuzzing的思路,可用于识别程序中的潜在漏洞。笔者在使用ChatGPT的过程中,发现它拥有强大的语义理解和文本生成能力,如果将其运用于自动化测试的编写,将是一种不错的提效手段。

ChatGPT编程实践应用案例

该文档记录云交易开发小伙伴儿们在开发过程中的实际应用案例,记录典型案例,以解决开发过程中的实际问题为主,涵盖设计方案、编码、测试、集成、部署等等。

基于ChatGPT的智能客服助手

人工客服需要处理大量原始数据?ChatGPT来帮你提升人效。

ChatGPT是如何产生心智的?

本文深入ChatGPT原理,详细阐述ChatGPT的工作机制,并解释如何在其“续写”机制下诞生了“心智”,最后结合中文房间问题和压缩机制重新解读了ChatGPT的“心智”。

解析ChatGPT背后的技术演进

随着ChatGPT火遍圈内外,连微博热搜都出现了它的身影。突然,好多许久未联系的各行各业的同学好友都发来“问候”:ChatGPT 是什么? 其实,ChatGPT 的成功并非一朝一夕,而是 OpenAI长达4年多持续努力、不懈追求取得的成果。

ChatGPT一句话生成可视化图表

本文将 ChatGPT 接入图表配置化工具,支持用一段话描述图表信息,生成图表后直接进入配置页面,输入一句话生成图表内容,并可进行配置和导出。

让非算法同学也能了解 ChatGPT 等相关大模型

我们应该去掌握大模型能做什么,去思考业务如何能够和大模型融合,但是不必焦虑和恐慌,因为没有 AI 能取代你,能取代你的只有你停止不前的脚步。

Dont you (forget NLP): Prompt injection with control characters in ChatGPT

Like many companies, Dropbox has been experimenting with large language models (LLMs) as a potential backend for product and research initiatives. As interest in leveraging LLMs has increased in recent months, the Dropbox Security team has been advising on measures to harden internal Dropbox infrastructure for secure usage in accordance with our AI principles. In particular, we’ve been working to mitigate abuse of potential LLM-powered products and features via user-controlled input.

Injection attacks that manipulate inputs used in LLM queries have been one such focus for Dropbox security engineers. For example, an adversary who is able to modify server-side data can then manipulate the model’s responses to a user query. In another attack path, an abusive user may try to infer information about the application’s instructions in order to circumvent server-side prompt controls for unrestricted access to the underlying model.

As part of this work, we recently observed some unusual behavior with two popular large language models from OpenAI, in which control characters (like backspace) are interpreted as tokens. This can lead to situations where user-controlled input can circumvent system instructions designed to constrain the question and information context. In extreme cases, the models will also hallucinate or respond with an answer to a completely different question.

Open AI写给教师的AI教学指南,你的教师朋友可能需要

我们正在分享一些关于教育工作者如何使用ChatGPT来加速学生学习的故事,以及一些帮助教育工作者开始使用该工具的提示。除了下面的例子之外,我们的新FAQ还包含了来自领先教育组织的关于如何用AI进行教学的额外资源,新的AI支持的教育工具的示例,以及教育工作者经常问到的关于ChatGPT如何工作、其局限性、AI探测器的有效性和偏见等问题的答案。

首页 - Wiki
Copyright © 2011-2024 iteam. Current version is 2.124.0. UTC+08:00, 2024-04-24 23:34
浙ICP备14020137号-1 $访客地图$