复旦管院李文文:我们和生成式AI合作,掌握提问技巧可以提高信息量颗粒度

2023-08-15 10:04:00 - 封面新闻

复旦管院李文文:我们和生成式AI合作,掌握提问技巧可以提高信息量颗粒度

封面新闻记者易弋力

你有打开过和ChatGPT的聊天框吗?你有想动动手指用Midjourney生成一张专属海报吗?生成式AI,在过去的半年中,几乎出现在所有的新闻热点和聊天记录中。它会帮助我们每一个人成为“超级个体”吗?我们和AI,是合作伙伴吗?

复旦大学管理学院信息管理与商业智能系讲师李文文表示,首先简单科普,生成式AI(GenerativeAI)是什么?生成式AI使用各类机器学习算法,以深度学习算法为主,从训练数据中进行学习,使机器能够生成新的内容,包括文本、图像、代码等等。需要注意的是,生成式AI产生的内容并不是简单复制得到的,而是“创造”出的全新的内容。

那如何实现这种“创造”?就要提到第二个概念Prompt!李文文称,Prompt是我们在对话框输入的文字,中文可以称作“提示”或者“指令”,有些AI绘画的创作者把它叫做“咒语”。Prompt是我们和AI交互的方式,我们可以把它看作是一门艺术,一门让AI提供更好的输出内容的艺术,它甚至创造了一个新兴职业PromptEngineer(提示工程师)。Prompt的好坏,直接决定了AI输出内容的质量,一个好的Prompt可以让AI生成高度符合我们需求的或者对我们的工作有很大帮助的内容。一个不好的Prompt可能只会让我们得到一些过于概括性的、开放式的内容。

那我们怎么样写出一个好的、有效的Prompt?

李文文表示,第一个技巧,也是最基本的技巧,提供尽可能明确、具体和清晰指令,需要特别注意,清晰不等于简短。第二个技巧,自定义指令,提供尽可能详细的信息,通常更长的提示会提供更多的信息和上下文,可以得到更详细的、包含更多细节的输出。

例如我的指令是“请给我一些关于阿里巴巴的信息”,那么我会得到一些关于公司介绍、发展历程的内容。但是,如果我的指令变成了更明确的例如“比较阿里巴巴和腾讯过去5年的表现,以及财务状况”,那我们能够得到的信息量颗粒度就会发生明显的变化。

如何让自定义指令更加有效呢?建议一,给AI提供一个情景或者进行角色扮演,例如上文提到的“比较阿里巴巴和腾讯过去5年的表现,以及财务状况”的例子,此时AI化身成了投资分析师。建议二,对AI的回答进行限定,比如对格式或者内容有所要求,例如输入“请用学术写作的风格介绍投资潜力的评价标准”,由于我们要求了学术风格和科普风格,得到的内容风格也会随之发生改变。

除了最基本的指令和自定义指令,我们还可以持续提问!让AI用不同的方式修改答案,或者对话题进行更多的探讨。比如我们可以先输入“我来复旦管院报道的第一天,是一个有趣的故事”,接着我们再输入“我来复旦管院报道的第一天,是一个发生在宿舍里的有趣的故事”。AI会记住你之前提供的信息,所以持续性的提问能让AI对于问题或者任务有更详细的了解,进而提供更符合特定场景或者要求的回答。

想要深刻理解我们和AI的合作关系,我们也需要知道硬币的另一面——现有AI技术有哪些局限性?

第一个局限性是幻觉(Hallucination),我们需要强调生成式AI设计的目标是让AI写出来的东西尽可能像人类写的,而不是知道并提供给用户事实。所以不能像使用搜索引擎一样使用生成式AI去搜索各种信息。再次强调!它不等于搜索引擎,所以你需要验证AI提供给你的信息。

第二个局限性是生成的内容具有时效性。例如,GPT-3.5只包含2021年9月以前的信息,所以就无法从GPT-3.5那里获取2021年9月以后的信息,比如公司的财务状况或者重大的社会事件。当然,AI产品在不断迭代,会吸收和学习各种新的知识和信息。

第三个局限性是数据安全隐患,即AI可能会泄漏我们提供给它的信息。数据安全的重要性毋庸置疑,从个人层面来说,建议大家不要提供任何个人数据或者隐私数据,从组织层面来说,公司或者其他组织也需要规范员工在工作场景中对AI产品的使用,避免敏感信息泄露。

今日热搜