<p class="ql-block"><br></p><p class="ql-block">最近有很多关于ChatGPT的讨论。包括一些博主为了吸引流量,故意夸大其词宣传ChatGPT的功能,让不少人担心自己的工作稳定性。</p><p class="ql-block"><br></p><p class="ql-block">出于好奇,这些天我也抽空跟ChatGPT有一些对话,我给它测试的问题包括宇宙起源、外星生命、十维空间、宗教信仰、轮回转世,也包括我的专业方面,甚至有“先有蛋还是先有鸡”那种刁钻又有趣的问题。</p><p class="ql-block"><br></p><p class="ql-block">对于我提出的专业基础问题,ChatGPT给出的答案一看就是网络上答案的集成,但是因为HPC这个领域技术更新很快,所以有好几个ChatGPT给出的答案不够准确或者已经过时。从这一点也能看出ChatGPT的算法并没有那么优化,ChatGPT也并非宣传的那么智能化。</p><p class="ql-block"><br></p><p class="ql-block">在这些测试上,感觉ChatGPT更像是一个升级版的搜索引擎,可以把各种资源搜索到的资料进行整合,但是这个整合也并非完善。</p><p class="ql-block"><br></p><p class="ql-block">ChatGPT看起来像是一个智能化的机器人,但它实际上是机器学习算法的应用程序。复杂的应用程序一般都有bug,有可以优化的地方。</p><p class="ql-block"><br></p><p class="ql-block">所以完全没有必要为了这样一个比较智能化的搜索引擎而过于担忧。我们更应该为此开心,因为它可能提供给我们更精准一些的搜索结果。</p><p class="ql-block"><br></p><p class="ql-block">比如,如果我们用现在流行的搜索引擎,输入关键字或者问题,就会出现一个个有相关信息的链接,我们需要选择和哪个链接再点击进去查看答案,不同的链接里可能有相近的答案,也可能有差别大的答案,这就需要我们自己判断哪一个是我们需要的或正确的信息。</p><p class="ql-block"><br></p><p class="ql-block">但是,ChatGPT对于用户每一个问题的提出,一次只给出一个答案,也就是搜索结果的组合,但是每刷新一次,或者重新问同一个问题,它会给出另一个搜索结果组合。也就是给出不同的搜索结果组合,也需要我们自己的判断。</p><p class="ql-block"><br></p><p class="ql-block">看到关于ChatGPT夸张不实的信息满天飞,让我想到“科学迷信”这个词。它的意思一是过于相信“科学”研究结果,二是过于讲究实际证据。迷信让人思维固化,眼界狭窄。</p><p class="ql-block"><br></p><p class="ql-block">在历史的长河中,人类实际上在这个地球上生存繁衍的过程还很短暂。人类的认知和能力都还很有限,这个世界上有太多太多人类无从知晓和改变的东西。</p><p class="ql-block"><br></p><p class="ql-block">只有我们承认自己的渺小,承认当今科学的局限,不迷信已有的知识和发现,开放思维,努力探索,才能有更多的未知被揭开,才更有助于人类的发展。</p><p class="ql-block"><br></p><p class="ql-block">(我是日记星球7660号星宝宝慧心语,今天是第77期训练营的第十九天)</p>