高并发

这种场景数据库是不是只能加锁啊?假设数据库中有两个表一个是流水表也就是扣款用,一个是userinfo就是余额在这看那么并发场景下。怎么保证余额是>0且数据无误。我的想法是。1查询余额如果减去后余额>=0则插入扣款后的余额,这个过程中加锁。但是这种如果是并发高一点的话是不是很慢啊?各位有这块的经验吗?希望可以指点一下。或者也可以讲解一下你们公司的扣款逻辑是啥?是如何做的?分布式锁,队列,单线程
发布日期 : 2022-11-26 10:37:10
配置:5个slb,10台16C64G的服务器。接口:一个天气页面的运营位查询接口。业务逻辑是本地缓存+一次get请求。本地缓存时间可以忽略不计。后端服务配置:默认tomcat设置,200msms的获取连接时间,200ms建立连接时间,500ms的数据传输时间,默认最大路由数30。现状:六点到八点间每台slb的ttps稳定在80w左右,某个时间会升高到100w+。此时服务时延会变高(10ms升到1600ms左右),错误数也会升高,接口成功率在99.95%左右。 有什么办法可以让这段时间的时延降低麽
发布日期 : 2022-03-15 10:45:57
最近和人面试,聊起来业务高并发的问题,一个面试者跟我说在之前的业务系统中,单机的QPS峰值可以做到几千万,然后好奇的问了一下怎么做,但是感觉面试者并没有把事情说的太明白,对于这么高的并发我在业务中并没有遇到过,所以想请教一下论坛的兄弟,单台服务器是否可以做到几千万的QPS,假设可以做的话,那么这服务器应该需要什么样子的配置。谢谢。
发布日期 : 2020-12-24 16:00:33
号称百万并发,但是我用ab压测的时候,发现如果nginx从后端服务获取的文件大小很大的话,响应的延迟就很高1、如果请求nginx,后端就返回几个字节的信息,那么上万并发没啥问题2、如果请求nginx,后端返回100K的信息,可能就只有5000并发,然后日志就有upstreamtimedout的错误,再继续增加并发的话,基本全是upstreamtimedout错误3、如果请求nginx,后端返回700K的信息,可能就只有500并发
发布日期 : 2020-10-22 20:40:26