博客
关于我
[Easy] 1. Two Sum
阅读量:348 次
发布时间:2019-03-04

本文共 1909 字,大约阅读时间需要 6 分钟。

1. Two Sum

Given an array of integers, return indices of the two numbers such that they add up to a specific target.

You may assume that each input would have exactly one solution, and you may not use the same element twice.

Example:

Given nums = [2, 7, 11, 15], target = 9,Because nums[0] + nums[1] = 2 + 7 = 9,return [0, 1].

Solution

1. brute force

class Solution {   public:    vector
twoSum(vector
& nums, int target) { int n = nums.size(); vector
res; for (int i = 0; i < n; i++) { for (int j = i+1; j < n; j++) { if(nums[i]+nums[j] == target) { res.push_back(i); res.push_back(j); return res; } } } return res; }};

2. hashmap

下面要用到unordered_map

unordered_map
::iterator it;it->first; // same as (*it).first (the key value)it->second; // same as (*it).second (the mapped value)

代码:

class Solution {   public:    vector
twoSum(vector
& nums, int target) { unordered_map
hmap; vector
res; for ( int i = 0; i < nums.size(); i++) { int input = nums[i]; //避免多次查找元素,先储存下来 int key = target - input; //计算关键码 auto it = hmap.find(key); // auto 简化变量初始化,根据后面的数据类型推测;find 通过给定关键码查找元素,如果key存在,则find返回key对应的迭代器,如果key不存在,则find返回unordered_map::end if ( it != hmap.end()) //如果key存在,说明已经找到符合条件的值,终止循环并返回 { res.push_back(it->second); //保存哈希表中的mapped value res.push_back(i); //保存当前下标 break; } //如果没有找到key,继续建立hash table hmap[input] = i; //保存nums[i]关键码所对应的下标值 } return res;}};

解题思路

这道题最简单能想到的就是遍历所有的可能数对,这样的话时间复杂度是O(n2)的。为了降低时间复杂度,我们可以考虑使用hashmap。

hashmap:
如果想知道是否有两个数的和等于target,可以先计算关键码key=target-nums[i]的值,然后在表中查找是否存在。如果存在直接返回下标。如果不存在,将{num[i], i} 保存到hash table中,以便下次查找。时间复杂度O(n)

转载地址:http://dyir.baihongyu.com/

你可能感兴趣的文章
Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
查看>>
Nginx配置如何一键生成
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>