做爰高潮a片〈毛片〉,尤物av天堂一区二区在线观看,一本久久A久久精品VR综合,添女人荫蒂全部过程av

最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
當前位置: 首頁 - 科技 - 知識百科 - 正文

Hadoop之MapReduce單元測試

來源:懂視網 責編:小采 時間:2020-11-09 13:20:55
文檔

Hadoop之MapReduce單元測試

Hadoop之MapReduce單元測試:通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新AP
推薦度:
導讀Hadoop之MapReduce單元測試:通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新AP

通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新API) 在開始之

通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。

下面是一個簡單的WordCount例子:(使用的是新API)

在開始之前,需要導入以下包:

1.Hadoop安裝目錄下和lib目錄下的所有jar包。

2.JUnit4

3.Mockito

?

map函數:

public class WordCountMapper extends Mapper {
	private static final IntWritable one = new IntWritable(1);
	private Text word = new Text();
	@Override
	protected void map(LongWritable key, Text value,Context context)
	throws IOException, InterruptedException {
	String line = value.toString();	// 該行的內容
	String[] words = line.split(";");	// 解析該行的單詞
	for(String w : words) {
	word.set(w);
	context.write(word,one);
	}
	}
}

?reduce函數:

public class WordCountReducer extends Reducer {
	@Override
	protected void reduce(Text key, Iterable values,Context context)
	throws IOException, InterruptedException {
	int sum = 0;
	Iterator iterator = values.iterator();	// key相同的值集合
	while(iterator.hasNext()) {
	int one = iterator.next().get();
	sum += one;
	}
	context.write(key, new IntWritable(sum));
	}
}

?測試代碼類:

public class WordCountMapperReducerTest {
	@Test
	public void processValidRecord() throws IOException, InterruptedException {
	WordCountMapper mapper = new WordCountMapper();
	Text value = new Text("hello");
	org.apache.hadoop.mapreduce.Mapper.Context context = mock(Context.class);
	mapper.map(null, value, context);
	verify(context).write(new Text("hello"), new IntWritable(1));
	}
	@Test
	public void processResult() throws IOException, InterruptedException {
	WordCountReducer reducer = new WordCountReducer();
	Text key = new Text("hello");
	// {"hello",[1,1,2]}
	Iterable values = Arrays.asList(new IntWritable(1),new IntWritable(1),new IntWritable(2));
	org.apache.hadoop.mapreduce.Reducer.Context context = mock(org.apache.hadoop.mapreduce.Reducer.Context.class);
	reducer.reduce(key, values, context);
	verify(context).write(key, new IntWritable(4));	// {"hello",4}
	}
}

?

具體就是給map函數傳入一行數據-"hello"

map函數對數據進行處理,輸出{"hello",0}

reduce函數接受map函數的輸出數據,對相同key的值求和,并輸出。



已有 0 人發表留言,猛擊->> 這里<<-參與討論


ITeye推薦
  • —軟件人才免語言低擔保 赴美帶薪讀研!—



  • 聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    Hadoop之MapReduce單元測試

    Hadoop之MapReduce單元測試:通常情況下,我們需要用小數據集來單元測試我們寫好的map函數和reduce函數。而一般我們可以使用Mockito框架來模擬OutputCollector對象(Hadoop版本號小于0.20.0)和Context對象(大于等于0.20.0)。 下面是一個簡單的WordCount例子:(使用的是新AP
    推薦度:
    標簽: 測試 情況下 單元
    • 熱門焦點

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top
    主站蜘蛛池模板: 鄂伦春自治旗| 饶河县| 广元市| 梁平县| 车险| 泾川县| 宁海县| 昌邑市| 邵阳市| 德江县| 邓州市| 汽车| 玉溪市| 彭水| 曲周县| 普兰店市| 永德县| 湟中县| 长泰县| 宣城市| 尉氏县| 松阳县| 镇江市| 正镶白旗| 九台市| 乐至县| 德阳市| 樟树市| 海阳市| 普兰店市| 湖北省| 岢岚县| 和硕县| 桑植县| 天台县| 同心县| 雷州市| 根河市| 敦煌市| 濮阳县| 晋州市|