国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

      想報司法高中怎么選科?

      時間:2025-01-21 09:14 人氣:0 編輯:招聘街

      一、想報司法高中怎么選科?

      要選擇法語高中科目,首先要了解學(xué)校的課程設(shè)置和要求。通常,法語高中的科目包括法語、數(shù)學(xué)、科學(xué)、歷史、地理、外語、體育等。根據(jù)自己的興趣和未來的職業(yè)規(guī)劃,選擇適合自己的科目。

      如果想進一步學(xué)習(xí)法律或國際關(guān)系,可以選擇法語、歷史和地理等科目。如果對科學(xué)和技術(shù)感興趣,可以選擇數(shù)學(xué)和科學(xué)等科目。同時,要考慮自己的能力和學(xué)習(xí)負(fù)擔(dān),合理安排科目的選擇,確保能夠充分發(fā)展自己的潛力。

      最后,咨詢學(xué)校的教務(wù)老師或輔導(dǎo)員,他們會給出更具體的建議和指導(dǎo)。

      二、高中體育面試題目有哪些?

      1 高中體育面試題目很多,具體題目取決于面試的排列方式和內(nèi)容安排。2 通常面試官會考察考生的體育知識、教育能力、溝通技巧等方面。可能的面試題目包括:如何制定體育訓(xùn)練計劃?如何培養(yǎng)學(xué)生的運動興趣?如何應(yīng)對體育課堂上的疑難問題?3 此外,面試題目還可能涉及到考生的體育教育實踐經(jīng)歷,如比賽經(jīng)歷、教學(xué)實踐、體育訓(xùn)練項目經(jīng)驗等。綜上所述,高中體育面試題目非常豐富多樣,考生需要做好充分準(zhǔn)備,全面展示自己在體育教育方面的能力和經(jīng)驗。

      三、高中公正司法教學(xué)反思

      高中公正司法教學(xué)反思

      作為教育工作者,我們應(yīng)始終追求公正和平等的教育環(huán)境。尤其在高中教育階段,培養(yǎng)學(xué)生的法治意識和公正司法觀念至關(guān)重要。然而,我們在實施高中公正司法教學(xué)時,可能面臨一些挑戰(zhàn)和問題,需要加以反思和改進。

      背景

      隨著社會的不斷進步和法治觀念的深入人心,高中公正司法教學(xué)已逐漸成為學(xué)生發(fā)展不可或缺的一部分。教師們致力于通過教學(xué)內(nèi)容和方法,使學(xué)生更好地理解法律原則和司法程序。然而,實踐中存在一些困難需要我們共同解決。

      挑戰(zhàn)和問題

      一方面,教材的選擇和編撰是一個亟待解決的問題。如何選擇合適的教材,確保內(nèi)容準(zhǔn)確全面,并符合學(xué)生的認(rèn)知水平是一個挑戰(zhàn)。現(xiàn)有的教材往往缺乏互動性和趣味性,難以引發(fā)學(xué)生的興趣和學(xué)習(xí)動力。

      另一方面,教學(xué)方法的創(chuàng)新和提升也是一個重要的課題。僅僅依靠傳統(tǒng)的講授和聽講方式,很難激發(fā)學(xué)生的思維和參與度。我們需要借助現(xiàn)代技術(shù)手段,例如多媒體教學(xué)和互動式討論,為學(xué)生提供更廣闊的學(xué)習(xí)空間。

      反思與改進

      為了解決上述問題,我們需要進行反思和改進。首先,教師們應(yīng)積極參與教材選編工作,確保選擇到合適的教材。可以考慮邀請法學(xué)專家參與教材審定,確保教材內(nèi)容的準(zhǔn)確性和全面性。此外,我們還可以尋找一些生動有趣的案例和真實故事,讓學(xué)生更好地理解法律原則。

      同時,教師們也需要提升自身的教學(xué)能力和方法。我們可以參加專業(yè)培訓(xùn)課程,學(xué)習(xí)先進的教學(xué)理念和技巧。了解和利用現(xiàn)代技術(shù)手段,可以讓我們的教學(xué)更加生動有趣。例如,通過制作教學(xué)視頻或采用在線討論平臺,促進學(xué)生之間的互動和合作。

      此外,我們還可以通過組織模擬法庭等實踐活動,讓學(xué)生親身參與,并體驗司法程序的公正性和合理性。這種實踐教學(xué)模式可以提高學(xué)生的實際操作能力,培養(yǎng)他們的團隊合作精神和辯論技巧。

      未來展望

      高中公正司法教學(xué)的改進是一個長期的任務(wù),需要全體教育從業(yè)者的共同努力。隨著社會的日益發(fā)展,我們期待高中公正司法教學(xué)能夠更加貼近學(xué)生,更加符合社會需要。通過不斷反思和改進,我們將為學(xué)生的法治意識和公正司法觀念的培養(yǎng)貢獻出更大的力量。

      總之,高中公正司法教學(xué)的改進是一個確保教育公平公正的重要任務(wù)。我們需要解決教材選擇和編撰的問題,提升教學(xué)方法和手段,并積極尋求實踐教學(xué)的途徑。只有通過不斷反思和改進,我們才能讓高中公正司法教育勝任其使命,為學(xué)生的成長和發(fā)展提供堅實的基礎(chǔ)。

      四、蘭州司法高中是公立的嗎?

      并非公立的。

      蘭州華中司法(高中部)學(xué)前身為蘭州明志補習(xí)學(xué)校(高一、高二、高三教學(xué),高三復(fù)讀,創(chuàng)辦于2003年,自成立以來已向高等院校輸送各類學(xué)生近萬名,其中向北京大學(xué)、清華大學(xué)、復(fù)旦大學(xué)、蘭州大學(xué)、西北師范大學(xué)、蘭州交通大學(xué)、華南理工大學(xué)、中南大學(xué)、西安交通大學(xué)、蘭州理工大學(xué)、四川大學(xué)等高等院校輸出優(yōu)秀學(xué)生近8000 余人,在甘肅省享有盛譽)。

      五、高中數(shù)學(xué)面試題目有課本嗎?

      高中數(shù)學(xué)面試題目不會提供課本,但在抽題室中會抽取考題并打印出來,這個就是我們常說的備課紙/題本,后續(xù)的教案還有試講都是根據(jù)這張試題來展開的。雖然這個試題本沒有課本那樣的詳細(xì),但是試講題目、要求、內(nèi)容以及答辯題目該有的都有。

      如題目要求有師生互動,就必須使用提問法;要求體現(xiàn)學(xué)生的主體地位,則可以采用討論法或自主學(xué)習(xí)等

      六、華中司法職業(yè)高中怎么樣?

      主要培養(yǎng)司法方面的學(xué)生,教學(xué)質(zhì)量符合教育部規(guī)定的

      七、高中英語教資面試題型有哪些?

      高中英語教資面試題型主要包括三個方面面試官會針對英語知識、教育原理以及教育實踐進行提問,以考察應(yīng)聘者的綜合素質(zhì)具體來說,英語知識方面會涉及英語語言學(xué)、英美文學(xué)、英語教學(xué)法及教育評價等;教育原理方面會包含教育心理學(xué)、教育學(xué)、教育法律知識等;教育實踐方面會關(guān)注教學(xué)設(shè)計、教育管理、班級管理等在備考過程中應(yīng)該根據(jù)面試題型有針對性地練習(xí),提高自己的整體素質(zhì)

      八、考不上高中讀司法警校優(yōu)缺點?

      讀司法警校優(yōu)缺點 優(yōu)點是可以學(xué)到很多實用的警務(wù)知識和技能,為以后從事刑事偵查、治安管理等工作打好基礎(chǔ);學(xué)校注重實踐和鍛煉,可以提高實際操作能力;畢業(yè)后可以直接就業(yè),有相對穩(wěn)定的職業(yè)前景缺點是如果最終不從事警務(wù)工作,專業(yè)技能難以轉(zhuǎn)移;部分考察科目與常規(guī)高中教育內(nèi)容有切割,對升學(xué)可能造成一定影響 若考取司法警校,需認(rèn)真考慮自己的發(fā)展方向和職業(yè)規(guī)劃,確保自己真正適合從事相關(guān)工作同時,在備考階段要及時做好準(zhǔn)備工作,充實自己的警務(wù)知識并提高自己的技能水平

      九、山西省司法學(xué)校是高中嗎?

      不是高中,經(jīng)省人民政府批準(zhǔn)成立的一所全日制中等法律職業(yè)學(xué)校。招生對象是初中畢業(yè)生和具有與初中同等學(xué)歷的人員,基本學(xué)制為三年,學(xué)生畢業(yè)屬中職學(xué)歷。學(xué)歷一般,就業(yè)率還行。

      經(jīng)過多年的精心辦學(xué),山西省司法學(xué)校學(xué)校獲得“省部級重點中專學(xué)校”、“山西省依法治校示范校”、“山西省法制教育先進集體”、連續(xù)三年被評為“省直文明單位標(biāo)兵”等榮譽稱號。

      近年來學(xué)校與中國政法大學(xué)聯(lián)合舉辦專、本科學(xué)歷教育和公共管理碩士研究生(MPA)課程進修班。

      十、mahout面試題?

      之前看了Mahout官方示例 20news 的調(diào)用實現(xiàn);于是想根據(jù)示例的流程實現(xiàn)其他例子。網(wǎng)上看到了一個關(guān)于天氣適不適合打羽毛球的例子。

      訓(xùn)練數(shù)據(jù):

      Day Outlook Temperature Humidity Wind PlayTennis

      D1 Sunny Hot High Weak No

      D2 Sunny Hot High Strong No

      D3 Overcast Hot High Weak Yes

      D4 Rain Mild High Weak Yes

      D5 Rain Cool Normal Weak Yes

      D6 Rain Cool Normal Strong No

      D7 Overcast Cool Normal Strong Yes

      D8 Sunny Mild High Weak No

      D9 Sunny Cool Normal Weak Yes

      D10 Rain Mild Normal Weak Yes

      D11 Sunny Mild Normal Strong Yes

      D12 Overcast Mild High Strong Yes

      D13 Overcast Hot Normal Weak Yes

      D14 Rain Mild High Strong No

      檢測數(shù)據(jù):

      sunny,hot,high,weak

      結(jié)果:

      Yes=》 0.007039

      No=》 0.027418

      于是使用Java代碼調(diào)用Mahout的工具類實現(xiàn)分類。

      基本思想:

      1. 構(gòu)造分類數(shù)據(jù)。

      2. 使用Mahout工具類進行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進行分類。

      接下來貼下我的代碼實現(xiàn)=》

      1. 構(gòu)造分類數(shù)據(jù):

      在hdfs主要創(chuàng)建一個文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。

      數(shù)據(jù)文件格式,如D1文件內(nèi)容: Sunny Hot High Weak

      2. 使用Mahout工具類進行訓(xùn)練,得到訓(xùn)練模型。

      3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

      4. 分類器對vector數(shù)據(jù)進行分類。

      這三步,代碼我就一次全貼出來;主要是兩個類 PlayTennis1 和 BayesCheckData = =》

      package myTesting.bayes;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.FileSystem;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.util.ToolRunner;

      import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

      import org.apache.mahout.text.SequenceFilesFromDirectory;

      import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

      public class PlayTennis1 {

      private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

      /*

      * 測試代碼

      */

      public static void main(String[] args) {

      //將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成 vector數(shù)據(jù)

      makeTrainVector();

      //產(chǎn)生訓(xùn)練模型

      makeModel(false);

      //測試檢測數(shù)據(jù)

      BayesCheckData.printResult();

      }

      public static void makeCheckVector(){

      //將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"testinput";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeTrainVector(){

      //將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"input";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

      String[] params = new String[]{"-i",input,"-o",output,"-ow"};

      ToolRunner.run(sffd, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("文件序列化失敗!");

      System.exit(1);

      }

      //將序列化文件轉(zhuǎn)換成向量文件

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

      String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

      Path in = new Path(input);

      Path out = new Path(output);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

      String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

      ToolRunner.run(svfsf, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("序列化文件轉(zhuǎn)換成向量失敗!");

      System.out.println(2);

      }

      }

      public static void makeModel(boolean completelyNB){

      try {

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

      String model = WORK_DIR+Path.SEPARATOR+"model";

      String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

      Path in = new Path(input);

      Path out = new Path(model);

      Path label = new Path(labelindex);

      FileSystem fs = FileSystem.get(conf);

      if(fs.exists(in)){

      if(fs.exists(out)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(out, true);

      }

      if(fs.exists(label)){

      //boolean參數(shù)是,是否遞歸刪除的意思

      fs.delete(label, true);

      }

      TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

      String[] params =null;

      if(completelyNB){

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

      }else{

      params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

      }

      ToolRunner.run(tnbj, params);

      }

      } catch (Exception e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("生成訓(xùn)練模型失敗!");

      System.exit(3);

      }

      }

      }

      package myTesting.bayes;

      import java.io.IOException;

      import java.util.HashMap;

      import java.util.Map;

      import org.apache.commons.lang.StringUtils;

      import org.apache.hadoop.conf.Configuration;

      import org.apache.hadoop.fs.Path;

      import org.apache.hadoop.fs.PathFilter;

      import org.apache.hadoop.io.IntWritable;

      import org.apache.hadoop.io.LongWritable;

      import org.apache.hadoop.io.Text;

      import org.apache.mahout.classifier.naivebayes.BayesUtils;

      import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

      import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

      import org.apache.mahout.common.Pair;

      import org.apache.mahout.common.iterator.sequencefile.PathType;

      import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

      import org.apache.mahout.math.RandomAccessSparseVector;

      import org.apache.mahout.math.Vector;

      import org.apache.mahout.math.Vector.Element;

      import org.apache.mahout.vectorizer.TFIDF;

      import com.google.common.collect.ConcurrentHashMultiset;

      import com.google.common.collect.Multiset;

      public class BayesCheckData {

      private static StandardNaiveBayesClassifier classifier;

      private static Map<String, Integer> dictionary;

      private static Map<Integer, Long> documentFrequency;

      private static Map<Integer, String> labelIndex;

      public void init(Configuration conf){

      try {

      String modelPath = "/zhoujianfeng/playtennis/model";

      String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

      String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

      String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

      dictionary = readDictionnary(conf, new Path(dictionaryPath));

      documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

      labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

      NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

      classifier = new StandardNaiveBayesClassifier(model);

      } catch (IOException e) {

      // TODO Auto-generated catch block

      e.printStackTrace();

      System.out.println("檢測數(shù)據(jù)構(gòu)造成vectors初始化時報錯。。。。");

      System.exit(4);

      }

      }

      /**

      * 加載字典文件,Key: TermValue; Value:TermID

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

      Map<String, Integer> dictionnary = new HashMap<String, Integer>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      String name = path.getName();

      return name.startsWith("dictionary.file");

      }

      };

      for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

      dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

      }

      return dictionnary;

      }

      /**

      * 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq

      * @param conf

      * @param dictionnaryDir

      * @return

      */

      private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

      Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

      PathFilter filter = new PathFilter() {

      @Override

      public boolean accept(Path path) {

      return path.getName().startsWith("part-r");

      }

      };

      for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

      documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

      }

      return documentFrequency;

      }

      public static String getCheckResult(){

      Configuration conf = new Configuration();

      conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

      String classify = "NaN";

      BayesCheckData cdv = new BayesCheckData();

      cdv.init(conf);

      System.out.println("init done...............");

      Vector vector = new RandomAccessSparseVector(10000);

      TFIDF tfidf = new TFIDF();

      //sunny,hot,high,weak

      Multiset<String> words = ConcurrentHashMultiset.create();

      words.add("sunny",1);

      words.add("hot",1);

      words.add("high",1);

      words.add("weak",1);

      int documentCount = documentFrequency.get(-1).intValue(); // key=-1時表示總文檔數(shù)

      for (Multiset.Entry<String> entry : words.entrySet()) {

      String word = entry.getElement();

      int count = entry.getCount();

      Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,

      if (StringUtils.isEmpty(wordId.toString())){

      continue;

      }

      if (documentFrequency.get(wordId) == null){

      continue;

      }

      Long freq = documentFrequency.get(wordId);

      double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

      vector.setQuick(wordId, tfIdfValue);

      }

      // 利用貝葉斯算法開始分類,并提取得分最好的分類label

      Vector resultVector = classifier.classifyFull(vector);

      double bestScore = -Double.MAX_VALUE;

      int bestCategoryId = -1;

      for(Element element: resultVector.all()) {

      int categoryId = element.index();

      double score = element.get();

      System.out.println("categoryId:"+categoryId+" score:"+score);

      if (score > bestScore) {

      bestScore = score;

      bestCategoryId = categoryId;

      }

      }

      classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

      return classify;

      }

      public static void printResult(){

      System.out.println("檢測所屬類別是:"+getCheckResult());

      }

      }

      相關(guān)資訊
      熱門頻道

      Copyright © 2024 招聘街 滇ICP備2024020316號-38

      国内精品久久久久_亚洲区手机在线中文无码播放_国内精品久久久久影院一蜜桃_日韩内射激情视频在线播放免费

        绥棱县| 马龙县| 巫山县| 武安市| 通山县| 乐清市| 高青县| 隆化县| 凭祥市| 平原县| 盐山县| 长泰县| 大渡口区| 呼玛县| 乌兰县| 海安县| 平江县| 宁晋县| 华坪县| 兴安县| 塔河县| 酒泉市| 台山市| 龙胜| 兰考县| 木兰县| 铜鼓县| 资兴市| 沂源县| 蒙自县| 监利县| 上犹县| 赤水市| 漯河市| 衡东县| 衡阳市| 惠东县| 花莲市| 南岸区| 齐齐哈尔市| 蓬溪县|