搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
文献来源:
出版时间 :
并行程序设计导论
0.00    
图书来源: 浙江图书馆(由图书馆配书)
  • 配送范围:
    全国(除港澳台地区)
  • ISBN:
    9787111392842
  • 作      者:
    (美)Peter S. Pacheco著
  • 出 版 社 :
    机械工业出版社
  • 出版日期:
    2013
收藏
内容介绍

  《并行程序设计导论》全面涵盖了并行软件和硬件的方方面面,深入浅出地介绍如何使用MPI(分布式内存编程)、Pthreads和OpenMP(共享内存编程)编写高效的并行程序。各章节包含了难易程度不同的编程习题。《并行程序设计导论》可以用做计算机科学专业低年级本科生的专业课程的教材,也可以作为软件开发人员学习并行程序设计的专业参考书。

展开
目录

出版者的话

译者序

本书赞誉

前言

致谢

第1章 为什么要并行计算

1.1 为什么需要不断提升的性能

1.2 为什么需要构建并行系统

1.3 为什么需要编写并行程序

1.4 怎样编写并行程序

1.5 我们将做什么

1.6 并发、并行、分布式

1.7 本书的其余部分

1.8 警告

1.9 字体约定

1.10 小结

1.11 习题

第2章 并行硬件和并行软件

2.1 背景知识

2.1.1 冯·诺依曼结构

2.1.2 进程、多任务及线程

2.2 对冯·诺依曼模型的改进

2.2.1 Cache基础知识

2.2.2 Cache映射

2.2.3 Cache和程序:一个实例

2.2.4 虚拟存储器

2.2.5 指令级并行

2.2.6 硬件多线程

2.3 并行硬件

2.3.1 SIMD系统

2.3.2 MIMD系统

2.3.3 互连网络

2.3.4 Cache一致性

2.3.5 共享内存与分布式内存

2.4 并行软件

2.4.1 注意事项

2.4.2 进程或线程的协调

2.4.3 共享内存

2.4.4 分布式内存

2.4.5 混合系统编程

2.5 输入和输出

2.6 性能

2.6.1 加速比和效率

2.6.2 阿姆达尔定律

2.6.3 可扩展性

2.6.4 计时

2.7 并行程序设计

2.8 编写和运行并行程序

2.9 假设

2.10 小结

2.10.1 串行系统

2.10.2 并行硬件

2.10.3 并行软件

2.10.4 输入和输出

2.10.5 性能

2.10.6 并行程序设计

2.10.7 假设

2.11 习题

第3章 用MPI进行分布式内存编程

3.1 预备知识

3.1.1 编译与执行

3.1.2 MPI程序

3.1.3 MPI_Init和MPI_Finalize

3.1.4 通信子、MPI_Comm_size和MPI_Comm_rank

3.1.5 SPMD程序

3.1.6 通信

3.1.7 MPI_Send

3.1.8 MPI_Recv

3.1.9 消息匹配

3.1.10 status_p参数

3.1.11 MPI_Send和MPI_Recv的语义

3.1.12 潜在的陷阱

3.2 用MPI来实现梯形积分法

3.2.1 梯形积分法

3.2.2 并行化梯形积分法

3.3 I/O处理

3.3.1 输出

3.3.2 输入

3.4 集合通信

3.4.1 树形结构通信

3.4.2 MPI_Reduce

3.4.3 集合通信与点对点通信

3.4.4 MPI_Allreduce

3.4.5 广播

3.4.6 数据分发

3.4.7 散射

3.4.8 聚集

3.4.9 全局聚集

3.5 MPI的派生数据类型

3.6 MPI程序的性能评估

3.6.1 计时

3.6.2 结果

3.6.3 加速比和效率

3.6.4 可扩展性

3.7 并行排序算法

3.7.1 简单的串行排序算法

3.7.2 并行奇偶交换排序

3.7.3 MPI程序的安全性

3.7.4 并行奇偶交换排序算法的重要内容

3.8 小结

3.9 习题

3.10 编程作业

第4章 用Pthreads进行共享内存编程

4.1 进程、线程和Pthreads

4.2 “Hello,World”程序

4.2.1 执行

4.2.2 准备工作

4.2.3 启动线程

4.2.4 运行线程

4.2.5 停止线程

4.2.6 错误检查

4.2.7 启动线程的其他方法

4.3 矩阵-向量乘法

4.4 临界区

4.5 忙等待

4.6 互斥量

4.7 生产者-消费者同步和信号量

4.8 路障和条件变量

4.8.1 忙等待和互斥量

4.8.2 信号量

4.8.3 条件变量

4.8.4 Pthreads路障

4.9 读写锁

4.9.1 链表函数

4.9.2 多线程链表

4.9.3 Pthreads读写锁

4.9.4 不同实现方案的性能

4.9.5 实现读写锁

4.10 缓存、缓存一致性和伪共享

4.11 线程安全性

4.12 小结

4.13 习题

4.14 编程作业

第5章 用OpenMP进行共享内存编程

5.1 预备知识

5.1.1 编译和运行OpenMP程序

5.1.2 程序

5.1.3 错误检查

5.2 梯形积分法

5.3 变量的作用域

5.4 归约子句

5.5 parallelfor指令

5.5.1 警告

5.5.2 数据依赖性

5.5.3 寻找循环依赖

5.5.4 π值估计

5.5.5 关于作用域的更多问题

5.6 更多关于OpenMP的循环:排序

5.6.1 冒泡排序

5.6.2 奇偶变换排序

5.7 循环调度

5.7.1 schedule子句

5.7.2 static调度类型

5.7.3 dynamic和guided调度类型

5.7.4 runtime调度类型

5.7.5 调度选择

5.8 生产者和消费者问题

5.8.1 队列

5.8.2 消息传递

5.8.3 发送消息

5.8.4 接收消息

5.8.5 终止检测

5.8.6 启动

5.8.7 atomic指令

5.8.8 临界区和锁

5.8.9 在消息传递程序中使用锁

5.8.10 critical指令、atomic指令、锁的比较

5.8.11 经验

5.9 缓存、缓存一致性、伪共享

5.10 线程安全性

5.11 小结

5.12 习题

5.13 编程作业

第6章 并行程序开发

6.1 n体问题的两种解决方法

6.1.1 问题

6.1.2 两个串行程序

6.1.3 并行化n体算法

6.1.4 关于I/O

6.1.5 用OpenMP并行化基本算法

6.1.6 用OpenMP并行化简化算法

6.1.7 评估OpenMP程序

6.1.8 用Pthreads并行化算法

6.1.9 用MPI并行化基本算法

6.1.10 用MPI并行化简化算法

6.1.11 MPI程序的性能

6.2 树形搜索

6.2.1 递归的深度优先搜索

6.2.2 非递归的深度优先搜索

6.2.3 串行实现所用的数据结构

6.2.4 串行实现的性能

6.2.5 树形搜索的并行化

6.2.6 采用Pthreads实现的静态并行化树搜索

6.2.7 采用Pthreads实现的动态并行化树搜索

6.2.8 Pthreads树搜索程序的评估

6.2.9 采用OpenMp实现的并行化树搜索程序

6.2.10 OpenMp实现的性能

6.2.11采用MPI和静态划分来实现树搜索

6.2.12 采用MPI和动态划分来实现树搜索

6.3 忠告

6.4 选择哪个API

6.5 小结

6.5.1 Pthreads和OpenMP

6.5.2 MPI

6.6 习题

6.7 编程作业

第7章 接下来的学习方向

参考文献

索引

展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

请选择您读者所在的图书馆

选择图书馆
浙江图书馆
点击获取验证码
登录
没有读者证?在线办证