信息差
笔者在大一结束的时候,有不少的新生前来向我请教,包括学习社团生活科研竞赛的种种经验,我当时便放出过这个论断,大学最大的差距不是天赋,不是努力,而是信息差。
不同于高中生成长路线的单一,及拜诸多辅导机构所赐,网络上或现实中均充斥着大量的有用信息,大学的信息依然繁杂,但是质量却参差不齐。
笔者在一个没有很多人指导的环境下独自摸索,踩过很多坑,也做过很多错事,回头来看,很多的努力和付出并不是必要的,而在一个追求快节奏的时代里,如何从这些庞杂的信息中识别出路径,并且在诸多路径中挑选到最短的那一条,毫无疑问是一个有价值且意义重大的学问。
在后续具体的学习方法中,将会有笔者这些年来积累的信息的汇总,而在这里让我们着眼于这抽象的思想,简单思考下如何减小信息差,并且获得到更多的信息。
对于绝大多数的减少信息的方法,我们可以粗略划分为两种类型,一种是提问,一种是搜索。
当你明确了你的疑问,明确了你想要获得怎样的信息,提问是最快的解决问题的方法。提问的关键有三点,如何形成正确的问题,如何找到可以回答问题的人,以及如何整理答案,并且从中获得你需要的内容。
排除少数的有偿咨询之外,绝大多数的提问是无偿的,而这往往意味着提问者没有付出任何代价就获得了自己想要的内容而被提问者则没有收获任何价值,而付出了时间和自己的知识。在这种不平衡之下,意味着提问者需要向被提问者表达最基本的尊重。提问的艺术是起初源于黑客社区的册子,里面讲述了新手如何向老鸟获得答案的方法,而这其中的内容极具参考价值,笔者也强烈推荐每一个读者去将其通篇阅读,这会为你将来的提问之旅带来更好的结果。
简单来说,提问的艺术中要求提问者需要向被提问者准确描述自己的状况,自己的需求以及目前已经尝试的方法,并且在获得自己需要的答案或者获得了帮助,即使并不是自己需要的内容后都表达感谢,这是最基本的尊重的体现。
对于那些乐于回答别人问题的人来说,他们很喜欢一个好问题,并且愿意为之付出大量的时间,因为这不仅可以帮助到提问者,也可以帮助被提问者整理自己的思绪,对这个问题产生更深刻的认知。然而相对的,假如读者希望被提问者可以花费十分钟回答自己的问题,毫无疑问自己也有必要花费十分钟来准备自己的问题,这才是公平的体现。
「我具有不错的课内成绩,现在正在抉择是参加机器人竞赛还是直接参与科研,我在网络上搜索了一些科研的知识,感觉具有比较高的上手门槛,而且领域繁多,我不知道如何选择,所以想要询问你的意见」,并且在提问结束后说上一句谢谢,听上去总比「怎么变成像你一样的人」,并且在获得回复之后已读不回听上去要好的多。
相比起来形成一个正确的问题,这种只需要勤加练习,并且付出时间的事情来说,找到合适的人总是一件更难的挑战。
对于人的信息的积累是一件需要持之以恒的事情,并且鲜有捷径可走。了解每一个人擅长做什么,对什么的理解深刻,并且在哪些方面可以帮到自己。在日常的交流中读者需要细心注意这些内容,并且记在心中。
一个好的开始是在阅读读完这篇博客之后,对于自己不懂的地方向笔者提问,不过在这里依然有一个小小挑战,毕竟有的时候你不仅需要知道你需要向谁提问,还需要知道你怎样才能和他取得联系。
除了积极的提问,从搜索引擎以及各路论坛讨论中获得信息也是一项十分关键的技能,而甚至对于一些技术问题来说,也只有在那些深奥的技术文档和技术论坛中才能获得答案。这是一项十分后期的技能,不得通过这种方式获得信息的时候,意味着你在这个领域已经打磨良久,并且有必要具备更 Senior 的能力了。而在此之前一些视频平台或者诸如知乎的社区,也可以给你理想的答案。
在三年以前,这个回复显然是唯一的正解,但是时过境迁,伴随大语言模型的兴起,面对搜索这个困难的开放性问题,显然有了不一样的答案,那提问与搜索集合成一体的究极答案,向大模型提问。
得益于大语言模型经过的大量预训练1,海量的互联网信息被它整合在自己的权重中,这意味着你可以通过日常的对话,就像和一个好朋友聊天一样,获得绝大多数你需要的信息。
有的时候你需要学会辨别信息获取的边界,那在互联网上广泛存在但是可能稍显晦涩的内容使大语言模型输出的强项,而假如这些信息更具时效性或者出现频率较低,则可能传统的提问与搜索才是更好的答案。比如说如何学习 Python 这门语言,向一位及时已经深谙到多年的学长进行数小时的提问,倒不如和大模型在对话中持续学习来的更有效率;而西安交通大学人工智能专业历届的保研比例和分数线,无论你用何种口吻或者要求向模型提问,他都很难给出正确的答案。
同时不容忽视的是大模型的幻觉问题,也就是模型输出的内容往往不一定是完全真实的,对于那些可以通过实践验证正确性的内容,最好的做法应当是立刻将之付诸实践,并且检查正误;而对于那些包含事实性内容的答案来说,将模型的输出粘贴到搜索引擎并进行二次确认,毫无疑问是更好的做法。
读者至少需要学会如何向 DeepSeek 或者 Qwen 这样的国产模型提问,进一步了解如何访问并获得国际上最前沿的模型服务,如 ChatGPT 或者 Gemini,则是更加进阶的做法。当然,这些内容会在后续的详细阐述中有更具体的体现。
Footnotes
Section titled “Footnotes”-
预训练(Pre-training)是指在大规模数据集上对模型进行初步训练,以学习通用的特征表示或语言知识,然后再在特定任务上进行微调(Fine-tuning)。这种方法最早广泛应用于自然语言处理和计算机视觉领域,显著提高了模型在下游任务中的性能。预训练使得模型能够在面对数据稀缺任务时仍具有良好的泛化能力,是现代深度学习中构建强大基础模型的核心策略之一。 ↩