服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

星跃计划|新项目!Knowledge Patching with Large Language Model项目开放申请!

日期: 来源:微软亚洲研究院收集编辑:微软学术合作

(本文阅读时间:6分钟)


微软亚洲研究院微软总部联合推出的 “星跃计划” 科研合作项目邀请你来报名!来自微软体验与设备(Experiences + Devices)全球总部应用研究团队的项目再次上新,欢迎大家关注与申请。加入 “星跃计划”,和我们一起跨越重洋,探索科研的更多可能!


该计划旨在为优秀人才创造与微软全球总部的研究团队一起聚焦真实前沿问题的机会。你将在国际化的科研环境中、在多元包容的科研氛围中、在顶尖研究员的指导下,做有影响力的研究。


本次招募的跨研究院联合科研项目聚焦自然语言处理领域,研究项目为 Knowledge Patching with Large Language Model。星跃计划开放项目将持续更新,请及时关注获取最新动态! 


星跃亮点


  • 同时在微软亚洲研究院、微软全球总部顶级研究员的指导下进行科研工作,与不同研究背景的科研人员深度交流

  • 聚焦来自于工业界的真实前沿问题,致力于做出对学术及产业界有影响力的成果

  • 通过线下与线上的交流合作,在微软了解国际化、开放的科研氛围,及多元与包容的文化


申请资格


  • 硕士、博士在读学生(具体参考项目要求);延期(deferred)或间隔年(gap year)学生
  • 可全职在国内工作 6-12 个月
  • 各项目详细要求详见下方项目介绍

还在等什么?
快来申请吧!

Knowledge Patching with Large Language Model

点击此处向上滑动阅览

Large generative pretrained transformers (e.g., GPT-3.5, ChatGPT) have shown surprisingly good performance in language modeling and have been successfully productized in long-form code generation (i.e., Codex for Co-pilot). However, for long-form natural language generation (e.g., writing an email for an office worker), the performance of large language model (LLM) is currently far from perfect because it doesn't have specific domain knowledge and user-specific information that are both critically needed to write appropriate content in the context.


To address the challenge to support the long-form natural language generation feature, we propose to equip the LLM with a novel knowledge patch to allow the LLM to digest necessary knowledge at runtime without parameter tuning. Our proposed knowledge patch is a non-parametric module that can store any knowledge we want LLM to digest runtime. It can be majorly built offline efficiently (e.g., it can be built based on the content of user's previous documents and mails) and easy to maintain (e.g., add new knowledge or remove old knowledge). Like patches to operating systems, our proposed knowledge patch can not only keep the LLM always updated, but also enable the model to become a personalized writing assistant that can really write to meet the user's need. We believe the LLM with our proposed knowledge patch will be the key modeling technology to provide long-form generation.


Research Areas 


Natural Language Processing


Qualifications


  • Ph.D. students majoring in computer science, electronic engineering, or related areas

  • Self-motivated and passionate in research

  • Solid coding skills

  • Experienced in Natural Language Processing


申请方式


符合条件的申请者请填写下方申请表:

https://jinshuju.net/f/TpaCqG

或扫描下方二维码,立即填写进入申请!









你也许还想看



相关阅读

  • 这次开学,我们请来了ChatGPT和各位前辈指点迷津

  • (本文阅读时间:22分钟)上学期期末带来的焦虑还没完全消散,开学的日子就已经到来了。在期末考试的答题过程中,你或许做出了一些选择:选 A、选 ACD、选择不写这道题。绩点有满绩,试题
  • 【本土文苑】一鞭打响羊头山(叙事诗)

  • 一鞭打响羊头山(叙事诗)刘生保//状元出山还是这个山里娃,从小在山沟里跌跌爬爬。帮妈妈砍柴烧火做饭,干起活来泼泼辣辣。还是这个山里娃,从小在山里头摔摔打打。帮爸爸上山放集
  • PPT科研绘图——综述模板轻松搞定!

  • 无套路分享良心公众号,资源一键免费获取 !如果对您有帮助,真诚的希望您可以分享给您身边的朋友谢谢!科研人都知道,一张美观的示意图,有助于更好的传达文章信息,同时也会大大提升文
  • 跟顶刊学配色,Origin2023绘制的数据满满高级感!

  • 来源:本文由公众号科研绝技整理首发背景介绍论文里的图表配色是一项非常重要的技能,好的配色会给审稿人和读者一种视觉冲击力和继续读下去的欲望,更能反应图像的变化趋势,具有很

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 1月精选文章回顾

  • 科技前瞻研究院的最新研究进展与资源分享一次性全部 get科学匠人揭秘科研背后的故事学术合作一起做有影响力的事你也许还想看:
  • 对话 | 为“冷门绝学”甲骨文研究插上科技之翼

  • (本文阅读时间:12分钟)编者按:近期,微软亚洲研究院主管研究员武智融与首都师范大学甲骨文研究中心莫伯峰教授团队合作,为人工智能“入驻”甲骨文研究领域成功打开了一扇大门——基