字节跳动2024奖学金公布:清华北大等八院校15名博士获奖

1月14日,字节跳动公众号公布“第四届字节跳动奖学金”评选结果,来自北京大学、北京邮电大学、清华大学、香港大学、香港城市大学、新加坡管理大学、新加坡国立大学、浙江大学(按拼音首字母排序)的15名在校生获奖,每人获得奖学金10万元人民币。

具体活获奖名单如下:

大部分获奖人都在 CVPR、ICCV、NeurIPS 等顶会上发表过多篇论文,年纪轻轻就已经是「高被引研究者」;一部分获奖人的开源项目在 GitHub 获得的 Star 量轻松过万,在 Hugging Face 被下载数百万次;还有一部分获奖人,潜心投入大模型、具身智能、物理世界建模等前沿方向,做出了一系列奠基工作,广受好评。

当我们好奇怎样才算高端 AI 人才的时候,打开这份奖学金名单,或许就明白了。

2024 年获奖名单

陈仁泽

  • 院校:北京大学
  • 研究领域:机器学习系统
  • 导师:梁云

陈仁泽参与的研究集中于机器学习系统领域,包括深度神经网络(DNN)的转换和优化。他参与的研究工作已发表于 ASPLOS、ISCA、HPCA、NeurIPS、MLSyS、DAC 等国际顶会,陈仁泽作为第一作者(含共一)的论文共有 5 篇。这些成果涵盖 “算子间融合”、“计算图调度”、“低秩化压缩” 和 “稀疏化压缩” 等方向,聚焦于机器学习系统的内存优化,显著降低了模型在云端和边缘端硬件上的内存占用。

方共凡

  • 院校:新加坡国立大学
  • 研究领域:高效深度学习
  • 导师:王鑫超

方共凡的主要研究领域是高效深度学习,包括深度网络压缩与高效模型设计。他提出了首个通用化的结构化剪枝框架 “DepGraph 技术”,令模型剪枝实现了自动化。他还开发了开源工具 Torch-Pruning,用户只需几行代码就能完成复杂模型的剪枝任务。此外,他针对大规模生成模型提出的 MaskLLM、Diff-Pruning、LLM-Pruner 等高效压缩方案,也显著降低了网络规模和训练成本。相关研究成果累计被引用超 1500 次、开源项目的 Github 星标超 8000。

冯寅潇

  • 院校:清华大学
  • 研究领域:计算机系体系结构和高性能互连网络
  • 导师:马恺声

冯寅潇的主要研究领域是计算机体系结构和高性能互连网络,包括芯粒(Chiplet)架构、片上网络、超算网络、数据中心网络、分布式系统和人工智能基础设施等。

作为第一作者,他的研究成果发表于 DAC 2022、MICRO 2023、HPCA 2023、ATC 2024、MICRO 2024、SC 2024 等顶会和期刊,解决了芯粒架构从新兴技术走向产业落地的一系列关键问题和挑战,推动了后摩尔时代计算机体系结构和下一代高性能互连架构的发展。

傅炜

  • 院校:清华大学
  • 研究领域:强化学习,分布式系统
  • 导师:吴翼

傅炜专注于解决强化学习应用在实际场景时的各种挑战。过去三年,他共发表六篇顶会(ICRA、ICLR、ICML 和 NeurIPS)论文,其中四篇担任第一作者或共同第一作者。他共同领导了大规模强化学习系统 “SRL 项目” 的开发,成功复现了 OpenAI 在捉迷藏环境中的解决方案。2024 年,他开发并开源了面向大语言模型的 RLHF 系统 “ReaLHF”,不仅实现了出色的训练吞吐量,还推动了先进的数学和编程智能体的开发。

刘克非

  • 院校:北京邮电大学
  • 研究领域:RDMA,网络测量与故障定位
  • 导师:张娇

刘克非的主要研究领域是 RDMA、网络测量与故障定位。在字节跳动高速网络团队实习时,他设计研发并在字节跳动数据中心内推动部署了主机内网络瓶颈定位工具 Hostping 和 RDMA 网络监控与故障定位系统 R-Pingmesh,高效保障了字节跳动训练业务的稳定、高效运行。相关成果已发表于 SIGCOMM 2024 (CCF-A) 、 NSDI 2023 (CCF-A)、、 IEEE/ACM Transactions on Networking (CCF-A) 等顶会顶刊。

刘毅

  • 院校:香港城市大学
  • 研究领域:人工智能物联网安全与隐私
  • 导师:王聪

刘毅的主要研究方向是人工智能物联网的安全、隐私与可信治理,并在相关领域取得了创新性和引领性的优秀成果及落地实践。他曾入选 2024、2023 年全球前 2% 顶尖科学家,并作为第一作者,发表 4 篇 CCF-A 会议 / 期刊论文和 7 篇 JCR 一区期刊论文(含 6 篇 ESI 高被引论文),授权国家发明专利 3 项,Google Scholar 统计总引用超 3258 次。

宋宇轩

  • 院校:清华大学
  • 研究领域:深度生成模型及其在科学发现中的应用
  • 导师:马维英、周浩

宋宇轩此前曾在字节跳动人工智能实验室全职担任研究工程师,他当前的研究集中在深度生成模型和科学人工智能(AI4Science)领域,特别关注开发有效且可扩展的机器学习算法,以解决分子生成、材料设计和蛋白家族设计等难题。目前,他已在 NeurIPS,ICML,ICLR,AISTATS 等机器学习会议发表多篇论文,其中,GeoBFN 获评 ICLR2024 Oral。他还曾参与蛋白质折叠的 CAMEO 竞赛,并连续六个月获得第一名。此外,他还曾获评清华大学智能产业研究院院长奖。

孙振俗

  • 院校:新加坡管理大学
  • 研究领域:智能软件工程
  • 导师:David Lo

孙振俗的主要研究领域是智能软件工程。他提出的 “面向 AI 的编程语言语法” 提升了模型推理效率,该成果发表于 ISSTA 2024 并荣获 ACM SIGSOFT 杰出论文奖。他还首次提出了基于大模型的代码补全存在无效代码补全的问题,并相应设计了预防及动态推理机制,相关成果分别发表于 TOSEM 和 ICSE 2024。他针对 “如何防范与利用代码大模型训练数据集中的脏数据” 的研究成果,也发表于 ICSE、WWW、 FSE 和 ISSTA 等顶级会议,并获得 ICSE 2022 杰出论文提名。

王梦召

  • 院校:浙江大学
  • 研究领域:数据库、大数据、信息检索
  • 导师:高云君

王梦召主要研究高维向量数据存储与检索、面向 RAG 的搜索系统,致力于打造面向 AI 应用的新型数据基础设施。他在近邻图向量检索细分领域取得了多项理论或技术突破,并针对亿级以上向量数据规模场景提出的磁盘导航图索引优化框架,将查询延迟降低超 90%,将查询吞吐量提升 1 个数量级。近几年,他曾主持省校级项目 3 项,主要参与 10 余项国家级和省部级科研项目。他还作为第一或通讯作者,在 SIGMOD、VLDB、ICDE、NeurIPS 等顶会和期刊上发表论文 6 篇,授权发明专利 3 件。

汶川

  • 院校:清华大学
  • 研究领域:具身智能,机器人
  • 导师:高阳

汶川研究方向是具身智能。博士期间,他提出了 RelatiViT 模型,实现从预训练视觉模型中提取空间关系信息;提出了 Any-point Trajectory Modeling (ATM) 方案,实现了小样本与跨具身模仿学习的能力。同时,他还发现并定义了模仿学习中因为时序信息造成的虚假关联性而出现的 copycat problem,并提出系列解决方案。他共发表国际顶会论文 13 篇,其中 7 篇为第一作者。此外,汶川还是 NeurIPS、ICML、ICLR、CVPR、ECCV 等国际会议和 RA-L 等国际期刊的审稿人。

吴海旭

  • 院校:清华大学
  • 研究领域:深度学习、科学机器学习
  • 导师:龙明盛

吴海旭的主要研究方向是深度学习和科学机器学习。他提出的 Corrformer 首次实现了全球数万台物联网设备的联合预测。他开源的时序分析算法库 Time-Series-Library,获得了 7000 多个 GitHub 星标,在全网 70000 多个时序相关仓库中排名前万分之二。此外,他提出的局域优化理论 RoPINN 和 PDE 快速求解网络 Transolver,可以在秒级完成千万级网格的模拟。当前,他作为第一作者(含共一)在 Nature Machine Intelligence、ICML、NeurIPS、ICLR 等国际顶会顶刊发表论文 10 余篇,谷歌学术引用 5000 余次。

吴睿海

  • 院校:北京大学
  • 研究领域:具身操作和三维视觉
  • 导师:董豪

吴睿海的主要研究方向是具身操作和三维视觉。在具身智能的物体操作这一领域,针对不同类别和属性的物体,他提出了一系列物体操作的视觉表征,用以指导完成柔性、铰接等不同物体的不同操作任务(如叠衣服,开抽屉,物体拼接等),并在此基础上,通过构建新的模拟环境,以支持更复杂和真实的操作任务。当前,他已在 RSS、NeurIPS、ICLR、CVPR、ICCV、ECCV、ICRA 等顶级会议,发表了近 20 篇论文。

吴胜琼

  • 院校:新加坡国立大学
  • 研究领域:多模态学习,通用大语言模型
  • 导师:Chua Tat-seng

吴胜琼的主要研究方向是多模态学习和大模型。目前,她已在多模态学习、自然语言处理以及机器学习等领域顶会上(如 NeurIPS, ICML, ACL, ACM MM)发表了多篇论文,谷歌学术被引次数达 2000 次。吴胜琼也获得了多项国际、企业、校级奖励和荣誉,由她主导的通用多模态大语言模型 “NExT-GPT” 工作获得了大语言模型社区广泛的关注和认可,相关开源项目已获得超 3.4k 星标。

杨丽鹤

  • 院校:香港大学
  • 研究领域:视觉基础模型、以数据驱动的 AI Research
  • 导师:赵恒爽

杨丽鹤的主要研究方向是视觉基础模型和数据驱动 AI,相关研究成果的 Github Star 数已超 12000 次,开源模型在 Hugging Face 上累计被下载超 700 万次,且被收录进 Transformers 库和 Apple Core ML Models。作为第一作者,他在计算机视觉和人工智能顶级会议 CVPR、ICCV、NeurIPS 上共发表了 7 篇论文,包含一篇 oral 论文,谷歌学术引用 1500 余次,并入选 CVPR 2024 十大最具影响力论文。

张启

  • 院校:北京大学
  • 研究领域:面向机器的视频编码以及沉浸式多媒体系统
  • 导师:高文、马思伟

张启的研究方向包括面向机器视觉的视频编码和沉浸式媒体系统。他首次提出了面向机器视觉的恰可识别失真概念,将编码性能提升 40%。他还首次验证了机器视觉多样性的广泛存在,提出了机器满意比概念,将编码性能和通用性提升 30%。此外,张启搭建了基于视角区块编码传输的 VR 直播系统,将 12K VR 视频直播所需带宽节省超 75%、视角切换延迟比国际标准降低 50%。目前,他已发表国际期刊、会议论文 10 篇,包含 TPAMI/IJCV 论文 3 篇。

据了解,字节跳动奖学金计划是字节跳动于2021年发起的一年一期的人才培养项目。过去三届,共有32位优秀学子获得了奖学金支持。2024字节跳动奖学金的获奖名额进一步扩大,其中有多名获奖者在人工智能大模型领域做出了突出成绩。

据悉,本届字节跳动奖学金共吸引了44 所高校的 424 人报名申请。经过材料初审、复审及终审答辩环节,15 位同学最终获奖。获奖学生均为博士生,研究领域覆盖自然语言处理、大模型、强化学习、深度学习、CV多模态、AI for Science、具身智能、计算机体系结构、视频架构、数据库、网络、安全、智能软件工程等技术方向。

字节跳动技术副总裁洪定坤表示:“字节跳动奖学金的设立,是希望识别更多优秀的青年才俊,为大家完成学业提供助力,也提供包括物质、培训交流、实践成长、视野拓宽在内的更多的支持。”

近年来,字节跳动持续加大对顶尖人才和前沿技术探索的投入。特别是在大模型技术变革到来之际,字节跳动与清华、北大分别联合成立相关研究组织,通过产学研深度合作推动技术创新。字节跳动还陆续开启“Top Seed人才计划”和“筋斗云人才计划”,吸引高潜力技术人才加入。据悉,本届字节跳动奖学金获奖者中已有应届学生选择接受“筋斗云人才计划”的offer,加入字节跳动开启新一轮的技术探索与实践。

0

付费内容

查看我的付费内容