在线咨询
eetop公众号 创芯大讲堂 创芯人才网
切换到宽版

EETOP 创芯网论坛 (原名:电子顶级开发网)

手机号码,快捷登录

手机号码,快捷登录

找回密码

  登录   注册  

快捷导航
搜帖子
楼主: jackzhang

[其它] TI 工业应用相关资料收集(免信元)

[复制链接]
发表于 2016-1-23 22:24:12 | 显示全部楼层
支持一下!
发表于 2016-1-24 02:03:24 | 显示全部楼层
thank for share
发表于 2016-1-24 22:41:52 | 显示全部楼层
不知是否用得上呢
不過還是先感謝您囉
发表于 2016-1-24 23:05:04 | 显示全部楼层
谢谢分享
发表于 2016-1-25 00:01:10 | 显示全部楼层
赞哦。
发表于 2016-1-25 21:55:47 | 显示全部楼层
打出速度和正确率。好好学习,天天向上

Typeeasy.part1.rar

14 MB, 下载次数: 1 , 下载积分: 资产 -5 信元, 下载支出 5 信元

打字练习

Typeeasy.part2.rar

483.44 KB, 下载次数: 1 , 下载积分: 资产 -2 信元, 下载支出 2 信元

打字练习

发表于 2016-1-25 21:59:49 | 显示全部楼层
好好学习,天天向上。

服务器架构.rar

13.64 MB, 下载次数: 1 , 下载积分: 资产 -5 信元, 下载支出 5 信元

好好学习

发表于 2016-1-26 07:15:54 | 显示全部楼层
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;

public class WordCount {
        public static class WordCountMap extends
                        Mapper<LongWritable, Text, Text, IntWritable> {
                private final IntWritable one = new IntWritable(1);
                private Text word = new Text();

                public void map(LongWritable key, Text value, Context context)
                                throws IOException, InterruptedException {
                        String line = value.toString();
                        StringTokenizer token = new StringTokenizer(line);
                        while (token.hasMoreTokens()) {
                                word.set(token.nextToken());
                                context.write(word, one);
                        }
                }
        }

        public static class WordCountReduce extends
                        Reducer<Text, IntWritable, Text, IntWritable> {
                public void reduce(Text key, Iterable<IntWritable> values,
                                Context context) throws IOException, InterruptedException {
                        int sum = 0;
                        for (IntWritable val : values) {
                                sum += val.get();
                        }
                        context.write(key, new IntWritable(sum));
                }
        }

        public static void main(String[] args) throws Exception {
                Configuration conf = new Configuration();
                Job job = new Job(conf);
                job.setJarByClass(WordCount.class);
                job.setJobName("wordcount");
                job.setOutputKeyClass(Text.class);
                job.setOutputValueClass(IntWritable.class);
                job.setMapperClass(WordCountMap.class);
                job.setReducerClass(WordCountReduce.class);
                job.setInputFormatClass(TextInputFormat.class);
                job.setOutputFormatClass(TextOutputFormat.class);
                FileInputFormat.addInputPath(job, new Path(args[0]));
                FileOutputFormat.setOutputPath(job, new Path(args[1]));
                job.waitForCompletion(true);
        }
}
发表于 2016-1-26 07:16:40 | 显示全部楼层
import java.io.IOException;

import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.Reducer;

import org.apache.hadoop.mapreduce.Partitioner;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import org.apache.hadoop.util.GenericOptionsParser;

public class Sort {

        public static class Map extends
                        Mapper<Object, Text, IntWritable, IntWritable> {

                private static IntWritable data = new IntWritable();

                public void map(Object key, Text value, Context context)
                                throws IOException, InterruptedException {
                        String line = value.toString();

                        data.set(Integer.parseInt(line));

                        context.write(data, new IntWritable(1));

                }

        }

        public static class Reduce extends
                        Reducer<IntWritable, IntWritable, IntWritable, IntWritable> {

                private static IntWritable linenum = new IntWritable(1);

                public void reduce(IntWritable key, Iterable<IntWritable> values,
                                Context context) throws IOException, InterruptedException {

                        for (IntWritable val : values) {

                                context.write(linenum, key);

                                linenum = new IntWritable(linenum.get() + 1);
                        }

                }
        }

        public static class Partition extends Partitioner<IntWritable, IntWritable> {

                @Override
                public int getPartition(IntWritable key, IntWritable value,
                                int numPartitions) {
                        int MaxNumber = 65223;
                        int bound = MaxNumber / numPartitions + 1;
                        int keynumber = key.get();
                        for (int i = 0; i < numPartitions; i++) {
                                if (keynumber < bound * i && keynumber >= bound * (i - 1))
                                        return i - 1;
                        }
                        return 0;
                }
        }

        /**
         * @param args
         */

        public static void main(String[] args) throws Exception {
                // TODO Auto-generated method stub
                Configuration conf = new Configuration();
                String[] otherArgs = new GenericOptionsParser(conf, args)
                                .getRemainingArgs();
                if (otherArgs.length != 2) {
                        System.err.println("Usage WordCount <int> <out>");
                        System.exit(2);
                }
                Job job = new Job(conf, "Sort");
                job.setJarByClass(Sort.class);
                job.setMapperClass(Map.class);
                job.setPartitionerClass(Partition.class);
                job.setReducerClass(Reduce.class);
                job.setOutputKeyClass(IntWritable.class);
                job.setOutputValueClass(IntWritable.class);
                FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
                FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
                System.exit(job.waitForCompletion(true) ? 0 : 1);
        }

}
发表于 2016-1-27 17:51:22 | 显示全部楼层
楼主威武!!!
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

站长推荐 上一条 /1 下一条

小黑屋| 手机版| 关于我们| 联系我们| 在线咨询| 隐私声明| EETOP 创芯网
( 京ICP备:10050787号 京公网安备:11010502037710 )

GMT+8, 2024-11-16 10:50 , Processed in 0.029526 second(s), 9 queries , Gzip On, Redis On.

eetop公众号 创芯大讲堂 创芯人才网
快速回复 返回顶部 返回列表