目前最具性价比的全栈路线是啥?
发布于 6 个月前 作者 npmstudy 3125 次浏览 来自 分享

#AI时代的全栈 专业前端,tailwind让css足够简单了,trpc让同构全栈更简单了,sdk或者说api组装大模型的推理能力够了。还有ai sdk、vercel、notion、clerk、supabase等等,你不慌吗? 要想做10x程序员,使用ai完成crud也很简单。如果不苛求性能,真的无所谓。 所以专业前端也会朝着全栈的路走的。

  • js是适合ai出码的
  • 全栈同构,利好足够
  • 各种服务,好用到爆(国外)
  • sdk更是丰富
    综上,对于js这种易学难精的语言,加上ai粘合作用,以及上面4个特点,真的可以做到10x的。 10x,最重要是脑子,其次是学习能力,然后就能够AI时代应变,断奶也无所谓。
    下面是正经回答:不用ts,直接裸js怼。 前端 前端astro,面向内容的都是非常好用,兼容各种前端框架,也支持ssr。甚至你dirty一点,react写一个页面,vue写一个页面也行。更脏一点,react和vue组件混在一个页面里。快,必然快。 外加tailwind + nextui.pro这样的模版,结合chatgpt随便出码。 搭配ollama+codellama,连chatgpt都不用付钱了。 接口 规模大:api、db和服务组装,用platformatic,相当于fastify升级。 规模小:fastify直接上 性能 堆机器是最简单的,正常服务器已经很便宜了。百万QPS不会有问题。

参考:

下面是我测试的fastify性能,比Bun要强一点。 Benchmark done on the same computer(Apple M2 Pro + 32 GB + macOS 13.6), almost at the same time (within 10 minutes)。 $ node -v v20.11.1 $ bun -v 1.1.2 Elysia is build(from ts to singlefile), no cluster and log Fastify use ESM(no need any build) , use cluster ,no log Fastify is faster than Elysia. Fastify(v4.26.2 cluster)):4763980 requests Requests/sec: 158275.91 Transfer/sec: 26.72MB Elysia(v1.0.13 cluster): 4654876 requests Requests/sec: 155000.93 Transfer/sec: 18.92MB Elysia(v1.0.13 single thread): 4088491 requests Requests/sec: 135982.83 Transfer/sec: 16.60MB Fastify optimizations. first time: fastify use log second time: fastify not use log third time:use cluster Elysia是bun写的框架,单进程比fastify快,开启cluster,它就没有fastify快了。市面上的评测我不认同,他们都不会用Node.js。那些压测有失公允。另外,Bun稳定性、生态还需要时间。 参考 ————- dirty 和 quick的关系大家自己想。

  • 专业前端:ts是不可或缺的
  • 专业node:ts也是推荐的

所以大家别纠结,能用ts还是建议用的,如果还没准备好,无所谓。大家可以去看看comfyui的代码就裸奔,其实fastify也是,不过提供了类型定义是有的。 选node的好处就是左右逢源,可以quick and dirty,也可以专业到rust一样苛刻,对于绝大部分应用是够的。 but,极重要的是你要把产品做牛逼到node性能不够,你就成功了。

5 回复

ChatGPT 其实已经模糊掉了各种新语言中级开发的场景(高级的定义是规模化之后的技术问题解决,可能只有 20% 的问题需要),工具不是现在最大的短板,甚至前端是否需要写 js 也不再重要,现在最大的问题是完成规模化的业务场景从哪里来

@hyj1991 国内的AI观望就行,钱都跑出去了,哪有钱投给AI。业务场景也得普通人有钱消费。

那就是不要搞太杂,语言:js,前端:vue, 基本上搞定一切了 前端、后端、app、小程序

全栈之路视频教程:https://www.bilibili.com/video/BV1j1421R7aB/

回到顶部