博客
关于我
G. Reducing Delivery Cost(思维+最短路)
阅读量:242 次
发布时间:2019-03-01

本文共 1700 字,大约阅读时间需要 5 分钟。


思路:开始看到了路线免费,以为是出了分层最短路板子,看了看发现只让一条路免费。

开始直接考虑暴力,枚举每条边,然后每个点进行dijkstra,最后取最小。复杂度O(n^2klogm);

考虑一下对每个点其实可以先预处理,提前处理好每个点的对应的最短路。O(n^2logm)

考虑免费的边的贡献。

对每一个ki来说,边(a,b)有三种情况。

1.开始不在其最短路路径上,免费后也不在其最短路路径上。

2.开始不在其最短路路径上,免费后在其最短路路径上。

3.开始在其最短路路径上,免费后在其最短路路径上。

对于第一种情况,ki的最短路长度不变,仍然是原来的dis[ki.first][ki.second] (ki.first和ki.second分别代表其起点和终点)

对于第二三种情况,ki的最短路长度可能变化,dis[ki.first][a]+dis[ki.second][b];dis[ki.first][b]+dis[ki.second][a];

那么枚举边,再枚举每个k,求出总和的最小.

总时间复杂度O(mk+n^2logm)

#include
#include
#include
#include
#include
#include
#include
#include
#include
#define debug(a) cout<<#a<<"="<
<
P;///first距离,second编号LL dis[maxn];LL n,m,k,start;struct edge{ LL to,cost;};vector
g[maxn];LL f[maxn][maxn];bool vis[maxn];void dijkstra(){ LL s=start; memset(dis,0x3f,sizeof(dis)); memset(vis,0,sizeof(vis)); dis[s]=0; priority_queue< P, vector

, greater

>que; que.push({0,s}); while(!que.empty()) { P p=que.top();que.pop(); LL v=p.second; if(vis[v]) continue; vis[v]=1; for(LL i=0;i

dis[v]+e.cost) { dis[e.to]=dis[v]+e.cost; que.push({dis[e.to],e.to}); } } } for(LL j=1;j<=n;j++){ f[s][j]=dis[j]; }}int main(void){ cin.tie(0);std::ios::sync_with_stdio(false); cin>>n>>m>>k; vector
>Edge; for(LL i=1;i<=m;i++) { LL u,v,w;cin>>u>>v>>w; g[u].push_back({v,w}); g[v].push_back({u,w}); Edge.push_back({u,v}); } vector
> v; for(LL i=1;i<=k;i++) { LL a,b;cin>>a>>b; v.push_back({a,b}); } for(LL i=1;i<=n;i++) { start=i; dijkstra(); } LL sum=1e18; for(auto i:Edge)///遍历每条边 { LL a=i.first;LL b=i.second; LL ans=0; for(auto j:v)///遍历所有人 { ans+=min( f[j.first][j.second],min(f[j.first][a]+f[j.second][b],f[j.first][b]+f[j.second][a]) ); } sum=min(sum,ans); } cout<
<

 

转载地址:http://twct.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从Oracle11G同步数据到Mysql_亲测可用_解决数据重复_数据跟源表不一致的问题---大数据之Nifi工作笔记0065
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>