跳到主要內容

簡易檢索 / 詳目顯示

研究生: 張經民
Chin-Ming Chang
論文名稱: 以新型距離探測系統完成環境辨識和即時車型機器人控制
Environment Recognization and Real-Time Control on a Car-Like Mobile Robot via a Novel Distance Sensor System
指導教授: 鍾鴻源
Hung-Yuan Chung
口試委員:
學位類別: 碩士
Master
系所名稱: 資訊電機學院 - 電機工程學系
Department of Electrical Engineering
畢業學年度: 93
語文別: 中文
論文頁數: 118
中文關鍵詞: 距離探測系統環境辨識霍普菲爾類神經網路即時控制車型機器人
外文關鍵詞: car-like mobile robot, distance sensor system, environment recognization, hopfield neural network, real-time control
相關次數: 點閱:18下載:0
分享至:
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報
  • 本篇論文提出一種新的環境辨識技術以應用在無人自走車的導引與避障,環境辨識的方法主要以Hopfield類神經網路來記憶學習環境資料,並以改良的Hopfield類神經網路成功的解決記憶資料清洗不完全的問題。車型機器人控制的方面,本論提出以多次的迴轉來節省車型機器人轉彎所需的前方空間,最後以雙層的模糊控制器來完成車型機器人趨近道路中心行駛的控制。
    為了驗證本論文所提出的環境辨識方法,吾人分別設計各種自走車可能遭遇的環境,並利用距離探測系統進行環境的辨識,將測距資訊繪製週遭環境圖。而車型機器人的最小迴轉半徑控制論文中除了提供理論上的證明以外,也以實驗結果證明本方法的可行性。
    本文利用視覺影像發展一種新式的測距方法,不需要複雜的影像識別演算法,以追求更低的成本與更快的即時運算速度,來取代傳統的超音波或是雷射光的測量工具,未來希望能將此測距系統成功的應用在複雜環境辨識與即時控制實驗中。


    In this paper, an environment recognition approach is applied in the obstacle avoiding and guidance of an autonomous Car-Like Mobile Robot. The environment recognition is implemented by the Hopfield neural network. We also provide a modified Hopfield network to reduce the output error. For the sake of the control of car-like mobile robot, a turning strategy is proposed to achieve the minimal turning ratio. Finally, a double layer fuzzy controller is designed to keep the robot cruising on the center of the road.
    In order to examine the performance of the proposed environment recognition, we create several possible patterns the mobile robot could meet in the real world. We use a novel distance measurement system to recognize the environment, and to plot the surroundings information. The minimal turning ratio control is not only proved in the theory but also verified by experiment of results.
    In this thesis, a novel distance measurement method based on the version image is developed. This system could perform the distance measurement without complicate algorithms. We expect that the proposed nonexpensive and faster measurement system would replace the conventional tools, such as the ultrasonic and infrared methods. In the future, we will apply the environment recognition to achieve the real time control of an autonomous robot in the complicate environment.

    中文摘要 英文摘要 誌 謝 目 錄 Ⅰ 圖 目 錄 Ⅳ 表 目 錄 Ⅹ 第一章 緒論 1 1.1 研究背景 1 1.2 距離探測器之發展概況 2 1.3 機器人導航文獻回顧 3 1.4 研究動機與方法 4 1.5 論文架構 5 第二章 測距系統和車型機器人硬軟體架構 6 2.1 自製距離探測器 6 2.1.1 CCD攝影機 6 2.1.2 雷射筆 7 2.1.3 CCD的廣角鏡頭扭曲畸變失真調整 9 2.1.4 距離探測器測距原理說明 11 2.1.5 直流伺服機 14 2.1.6 伺服機控制 15 2.2 測距控制介面 16 2.3 MSP 430微處理器和通訊傳輸介面 16 2.3.1 MSP430簡介 16 2.3.2 串列通訊介面 18 2.4 車體結構 19 2.4.1 前輪轉向結構 20 2.4.2 後輪跑動結構 24 2.5 電力系統 25 第三章 利用自製距離探測系統進行環境辨試並使用Hopfield類神經網路調整之 26 3.1 第一個實驗:測距精準度實驗 26 3.2 第二個實驗:週遭環境的辨識 27 3.2.1 十種環境下的量測結果 28 3.2.2 轉角處誤差的成因 34 3.3 類神經網路介紹 35 3.4 使用Hopfield類神經網路來調整測距環境圖 38 3.5 改良型Hopfield類神經網路調整測距環境圖 50 3.5.1 定義差異度 50 3.5.2 增強神經網路的記憶深刻度 51 3.5.3 使用改良的Hopfield類神經網路來調整測距環境圖 52 3.6 未來的可供發展的環境識別研究方向 55 3.6.1 利用不變動量將形狀特徵析出 55 3.6.2 比較特徵值的差異度 57 第四章 自製距離探測系統應用於車型機器人即時控制設計 59 4.1 模糊理論簡述 59 4.2 車體動態系統和Dbr的計算 60 4.2.1 車體動態系統 60 4.2.2 方形環境下估算Dbr 62 4.3 車型機器人轉彎的省空間方法 63 4.3.1 最小迴轉半徑 63 4.3.2 利用多次迴轉來節省車型機器人轉彎所需的空間 64 4.4 道路中心行駛模糊控制器設計 69 4.5 道路中心行駛模擬 74 4.6 道路中心行駛實驗結果 75 4.7 策略融合 78 第五章 結論與未來研究方向 82 5.1 結論 82 5.2 未來研究方向 82 參考文獻 84 附錄一:vfw的原始指令(source code)資料 88 附錄二:前輪轉角及S03T直流伺服機間的角度變換公式推導 91 附錄三:利用多次迴轉來節省車型機器人轉彎所需空間的推導 95

    [1]J. Illingworth and A. Hilton,“Automatic construction of static object
    models using computer vision”, Electronics & Communication Engineering Journal, Vol.10, Issue.3,pp.103-113,June 1998.
    [2]B. Barshan, and R. Kuc,“Differentating Sonar Reflections from orners and Planes by Employing an Intelligent Sensor”IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.12,no.6,pp.560-569,
    June 1990.
    [3]Juha Kostamovaara etal.,“Integrated Time-of-Flight Laser adar”,IEEE
    Transactions on Instrumentation and measurement, Vol.46, NO.4,pp.196-199, Aug 1997.
    [4]R.C.Luo and R.S.Scherp,“3D object recognition using a mobile laser range finder”,IEEE International Workshop on Intelligent Robots and system ’90.’Towards a New Frontier of Applications’,vol.2,pp.673-677, 1990.
    [5]S. Elgazzar,R.Liscano,F.Blais and A.Miles,“Active range sensing for indoor environment modeling”,IEEE Transactions on Instrumentation and Measurement, Volume.47 Issue: 1,pp.260-264,Feb 1998.
    [6]M.Rioux,F. Blais,J. Beraldin and P.boulanger,“Range imaging sensors development at NRC Laboratories”, Interpretation of 3D Scenes, 1989.,pp.154-160,1990.
    [7]K.Sasaki, N. Ishikawa, T. Otsuka and M. Nakajima,“3D image location surveillance system for the automotive rear-view”, Vehicle Navigation and Information Systems Conference Proceedings,pp.27-32,1994.
    [8]E. M. Petriu, “Automated guided vehicle with absolute encoded guide-path,” IEEE Transactions on Robotics and Automation, Vol.7, No.4, pp.562-565, 1991.
    [9]A. P. Tirumalai, B. G. Schunck and R. C. Jain, “Evidential reasoning for building environment maps,” IEEE Transactions on Systems, Man, and Cybernetics, Vol.25,No.1, pp.10-20, 1995.
    [10]D. Pagac, E. M. Nebot and D. W. Hugh, “An evidential approach to map-building for autonomous vehicles,” IEEE Transactions on Robotics and Automation, Vol.14, No.4, pp.623-629, 1998.
    [11]Y. K. Hwang and N. Ahuja, “A potential field approach to path planning,” IEEE Transactions on Robotics and Automation, Vol.8, No.1, pp.23-32, Feb. 1992.
    [12]J. C. Latmobe, Robot Motion Planning, Kluwer Academic Publishers,1991.
    [13]A. Ohya, A. Kosaka and A. Kak, “Vision-based navigation by a mobile robot with obstacle avoidance using single-camera vision and ultrasonic sensing,” IEEE Transactions on Robotics and Automation, Vol.14, No.6, pp.969-978, 1998.
    [14]A. Fujimori, P. N. Nikiforuk and M. M. Gupta, “Adaptive navigation of mobile robots with obstacle avoidance,” IEEE Transactions on Robotics and Automation, Vol.13, No.4, pp.596-602, 1997.
    [15]http://www.futaba-rc.com/
    [16]Texas Instruments, “MSP430xF4xx Users Guide” , 2003.
    [17]Texas Instruments, “MSP430x44x Datasheets” , 2002.
    [18]http://www.gws.com.tw/chinese/product/SERVO/standard.htm
    [19]J.H. Li, A.N. Michel, and W. Porod, “Analysis and synthesis of a class of neural networks: linear systems operating on a closed hypercube,” Circuits and Systems, IEEE Transactions on , vol. 36, no. 11, pp. 1405 –1422, Nov. 1989.
    [20]L. A. Zadeh, “The concept of a linguistic variable and its application to approximate reasoning,” Memorandum ERL-M 411 Berkely, October 1973.
    [21]J. P. Laumond, P. E. Jacobs, M. Taix, and R. M. Murray, “A motion planner for nonholonomic mobile robots,” IEEE Trans. Robot. Automat.,vol. 10, pp. 577–593, Oct. 1994.
    [22]Tzuu-Hseng S. Li, Shih-Jie Chang, and Yi-Xiang Chen, “Implementation of Human-Like Driving Skills by Autonomous Fuzzy Behavior Control on an FPGA-Based Car-Like Mobile Robot,” IEEE Transactions on industrial electronics, vol. 50, no. 5, Oct 2003.
    [23]劉原志,“具自調雷射光強度的曲面量測與測距系統”,國立中央大學電機工程系碩士班,碩士論文,民國91年。
    [24]張正東,“結合影像及紅外線感測於自動導航車避障策略之設計”,國立台北科技大學電機工程系碩士班,碩士論文,民國90年。
    [25]翁慶昌,黃雋博,林柏辰,黃裕勝,“機器人足球賽之影像處理的位置修正”,淡江大學電機系,第七屆人工智慧與應用研討會(TAAI2002)論文集。
    [26]郭嘉興,“遠端監控功能之順從式足型機器人”,國立中央大學電機工程系碩士班,碩士論文,民國93年。
    [27]林志良,“光學影像討論.ppt”,http://delphi.ktop.com.tw/topic.asp?topic_id=66402,民國94年。
    [28]林榮三,吳賢財,謝文哲,省電型16位元單晶片MSP430入門實務,滄海,民國92年。
    [29]李欽舜,“輪型行動機器人之運動控制與路徑規劃”,國立中央大學電機工程系碩士班,碩士論文,民國93年。
    [30]范逸之,江文閒,陳立元,C++ Builder與RS232串列通訊控制,文魁,民國91年。
    [31]葉怡成,類神經網路模式應用與實作,儒林,民國92年。
    [32]曾榮鴻,莊季高,“類神經網路應用於數字識別之分析與比較”,國立台灣海洋大學導航與通訊系,第七屆人工智慧與應用研討會(TAAI2002)論文集。
    [33]羅華強,類神經網路–MATLAB 的應用,清蔚科技股份有限公司,民國90年。
    [34]劉孝忠,“Microcanonical平均退火類神經網路在晶片印字辨識之應用”,中華技術學院機械系,副教授,第七屆人工智慧與應用研討會(TAAI2002)論文集。
    [35]王文俊,認識Fuzzy-第二版,中央大學電機系,全華書局。
    [36]許哲源,“自走車之驅動控制與避障規劃”,國立成功大學工程科學系碩士班,碩士論文,民國92年。

    QR CODE
    :::