Current Issue: <FITEE>

Frontiers of Information Technology & Electronic Engineering (former title: Journal of Zhejiang University SCIENCE C (Computers & Electronics), 2010-2014)

ISSN 2095-9184 (print); ISSN 2095-9230 (online); CN 33-1389/TP; Monthly.


FITEE is an international peer-reviewed journal indexed by SCI-E, Ei Compendex, DBLP, IC, Scopus, JST, CSA, etc. It covers research in Electrical and Electronic Engineering, including Computer Science, Information Sciences, Control, Automation, Telecommunications, and related disciplines.

Impact factor: 0.308 (2011), 0.297 (2012), 0.380 (2013), 0.415 (2014), 0.392 (2015), 0.622 (2016), 0.910 (2017), 1.033 (2018), 1.604 (2019), 2.161 (2020), 2.526 (2021).

 


Journal of Zhejiang University SCIENCE C

ISSN 1869-1951(Print), 1869-196x(Online), Monthly

<<<                         CONTENTS                         >>>

Computer & Automation

Review: Unicast routing protocols for urban vehicular networks: review, taxonomy, and open research issues

Syed Adeel Ali Shah, Muhammad Shiraz, Mostofa Kamal Nasir, Rafidah Binti Md Noor

DOI: 10.1631/jzus.C1300332 Downloaded: 3717 Clicked: 9068 Cited: 10 Commented: 0(p.489-513) <Full Text>   <PPT>  2179

Chinese summary   <137>  城市車(chē)輛網絡的單播路由協議:綜述、分(fēn)類法和開(kāi)放(fàng)性研究問題

中(zhōng)文概要:近來,基于車(chē)載自組織網絡,産生(shēng)了大(dà)量車(chē)輛安全應用,這類應用考量公共利益,使用全網傳播技術。與之相比,有一(yī)類無關安全的應用,考量的是位置不同的兩車(chē)之間的利益,并不需要全網傳播技術。已有文獻提出将單播協議用于這些無關安全的應用,其中(zhōng),針對城市場景的單播協議應用被認爲最具挑戰性,因爲此種情形下(xià),車(chē)輛特性(包括機動性、道路結構、自然環境等)極其多變,單播協議持久性最差。本綜述圍繞城市場景中(zhōng)車(chē)輛特性多樣、單播協議适應難的特點而展開(kāi)。首先,根據對預先定義單播路徑的需求,将應用于城市場景的單播協議進行分(fēn)類;之後,讨論了典型城市道路的特性,以利于探讨高效單播通信的限制所在。基于廣泛的文獻綜述,針對單播協議操作的不同方面,提出一(yī)種分(fēn)類方法。進一(yī)步,綜述了最能體(tǐ)現城市場景根本特性的單播協議,并針對分(fēn)類方法采用的幾個重要參數,對這些協議作定性比較。同時,比較了用于協議實驗評估的顯著方法。最後,指出單播路由的開(kāi)放(fàng)性研究問題。

單播協議;分(fēn)類法;協議綜述;車(chē)載自組織網絡;地理位置路由

Procedural generation and real-time rendering of a marine ecosystem

Rong Li, Xin Ding, Jun-hao Yu, Tian-yi Gao, Wen-ting Zheng, Rui Wang, Hu-jun Bao

DOI: 10.1631/jzus.C1300342 Downloaded: 3560 Clicked: 7705 Cited: 0 Commented: 0(p.514-524) <Full Text>   <PPT>  2110

Chinese summary   <107>  複雜(zá)海洋生(shēng)态系統的過程式生(shēng)成與實時繪制

研究目的:面向具有生(shēng)物(wù)多樣性的大(dà)範圍複雜(zá)海洋生(shēng)态環境,實現對其複雜(zá)幾何的高效建模生(shēng)成,同時實現實時繪制。
創新要點:我(wǒ)們使用了一(yī)種CPU和GPU混合的過程式生(shēng)成流水線,從而充分(fēn)發揮了CPU的靈活性和GPU的高計算性能,取得了整體(tǐ)上的高效率。
研究方法:首先,考慮了海底地形、波能、光能、生(shēng)物(wù)屬性等影響因素,提出了一(yī)種以競争機制爲原則的生(shēng)态環境模拟過程,輸出區域海底環境的生(shēng)物(wù)空間分(fēn)布(圖4)。然後,針對海洋生(shēng)物(wù)個體(tǐ),提出了一(yī)個兩階段的過程式生(shēng)成流水線(圖2)。第一(yī)階段,在CPU上通過解碼一(yī)系列語法,生(shēng)成粗糙的幾何外(wài)形和高度緊湊的細節信息;第二階段,基于現代GPU的強大(dà)硬件細分(fēn)能力,實時解碼細節信息,完成多細節層次的生(shēng)物(wù)細節幾何生(shēng)成。最後,針對海洋生(shēng)物(wù)之間的互動,系統定制了動态模拟模塊。通過對複雜(zá)物(wù)理模型的簡化,在CPU上實現對海洋生(shēng)物(wù)整體(tǐ)形狀形變的實時計算。在GPU上利用該形變計算結果,生(shēng)成生(shēng)物(wù)的形變細節(圖11)。
重要結論:針對大(dà)範圍海下(xià)生(shēng)态環境,提出了一(yī)種高效的過程式建模和繪制系統,達到了複雜(zá)幾何的高效生(shēng)成及實時三維場景漫遊效果。

過程式生(shēng)成;海洋生(shēng)态環境;生(shēng)物(wù)特性;GPU加速

Contact-free and pose-invariant hand-biometric-based personal identification system using RGB and depth data

Can Wang, Hong Liu, Xing Liu

DOI: 10.1631/jzus.C1300190 Downloaded: 6460 Clicked: 7558 Cited: 7 Commented: 0(p.525-536) <Full Text>   <PPT>  2012

Chinese summary   <28>  基于人手生(shēng)物(wù)測量信息并利用顔色和深度數據的身份識别系統

研究目的:利用人手生(shēng)物(wù)測量信息被認爲是身份自動識别的一(yī)種有效方法。我(wǒ)們利用深度信息和顔色信息提取多種線索,以增加身份識别的精度。
創新要點:在已有方法基于顔色、紋理特征的基礎上,使用深度傳感器提供的深度信息,充分(fēn)運用人手輪廓的曲率特征提取人手幾何特征,并利用人手輪廓特征和手掌平面拟合對不同姿态的人手進行姿态統一(yī)化。
方法提亮:首先利用深度信息在圖像分(fēn)割上的魯棒性提取人手區域,然後利用人手輪廓的幾何信息矯正人手姿态。對于矯正後的人手區域,分(fēn)别提取基于深度的幾何特征和基于顔色和紋理的特征,并結合之前利用顔色信息提取人手生(shēng)物(wù)信息的經典特征,描述人手的生(shēng)物(wù)特征。充分(fēn)利用了深度信息在人手姿态矯正上的優勢和人手輪廓等集合信息。基于顔色和紋理的信息可用很多經典方法提到的特征,并可用高清相機采集顔色信息。
重要結論:大(dà)量實驗證實,融合多種線索描述人手的生(shēng)物(wù)特征,提升了基于傳統特征提取人手特征和識别身份的精度,在實際應用中(zhōng)有效且魯棒。

顔色和深度數據;RGB-D;生(shēng)物(wù)測量;身份識别

Probabilistic hypergraph based hash codes for social image search

Yi Xie, Hui-min Yu, Roland Hu

DOI: 10.1631/jzus.C1300268 Downloaded: 3288 Clicked: 7879 Cited: 1 Commented: 0(p.537-550) <Full Text>   <PPT>  1956

Chinese summary   <34>  基于概率超圖哈希編碼的社交圖像檢索研究

研究目的:在過去(qù)十多年中(zhōng),互聯網多媒體(tǐ)數據爆炸性增長,數以億計的網絡圖片給傳統圖像檢索技術帶來了巨大(dà)挑戰。在如此龐大(dà)數據量上進行特征空間歐式距離(lí)最近鄰搜索,不切實際。如何更有效地表達和檢索網絡圖片成爲當前研究熱點。針對此熱點和難點,本文提出了基于概率超圖哈希編碼的大(dà)規模圖像快速檢索技術。
創新要點:利用概率超圖建立社交圖片之間語義層面和視覺特征層面的關聯性。相比簡單圖模型,超圖模型能更有效地描述不同圖片之間的高層次聯系,尋找社交網絡圖片之間更深層次的信息。相比一(yī)般超圖,概率超圖能更有效地表述節點對超邊的歸屬程度。利用超圖拉普拉斯矩陣将概率超圖投影到漢明(Hamming)空間,極大(dà)提升了圖像存儲、檢索效率。
方法提亮:本方法結合了社交網絡圖片的視覺特征和用戶标注信息,利用概率超圖挖掘這兩種信息的高層次關聯性,并根據具體(tǐ)情況給予這兩種信息不同權重。
重要結論:實驗數據表明,與現有哈希檢索方法相比,該方法對社交圖像進行快速檢索的準确率有較大(dà)提升。

超圖拉普拉斯;概率超圖;哈希編碼;圖像檢索

Fast global kernel fuzzy c-means clustering algorithm for consonant/vowel segmentation of speech signal

Xian Zang, Felipe P. Vista Iv, Kil To Chong

DOI: 10.1631/jzus.C1300320 Downloaded: 2876 Clicked: 12435 Cited: 6 Commented: 0(p.551-563) <Full Text>   <PPT>  2045

Chinese summary   <29>  語音信号輔音/元音分(fēn)割的快速全局模糊c均值聚類算法

創新方法:傳統的模糊c均值方法(FCM)有兩個缺點:對初始值要求嚴格,無法處理非線性分(fēn)割數據。通過使用基于核的模糊c均值聚類法(KFCM-F)作爲本地搜索方法,采用漸進方法獲得近乎最優的結果,這種方法的漸進性和KFCM-F的非線性,可以避免FCM的兩個缺點。
研究手段:使用KFCM-F處理數據,在不顯著影響實驗結果的情況下(xià),設計了一(yī)個加速計劃以降低計算複雜(zá)度。采用非線性人工(gōng)數據組和現實數據組作爲語音信号,進行輔音/元音分(fēn)割,以檢測這種新算法的性能。
重要結論:KFCM-F方法巧妙地避免了傳統FCM方法的兩個缺點。我(wǒ)們設計的算法(FGKFCM-F)繼承了KFCM-F和全局模糊c均值方法(GFCM)的優點,得以實現基于非線性分(fēn)割數據組的近乎最優解。此外(wài),我(wǒ)們設計的加速計劃大(dà)大(dà)降低了整個計算的複雜(zá)度。實驗結果證實,FGKFCM-F比其他方法更适合處理人工(gōng)和現實數據。

模糊c均值聚類法;核方法;全局優化;輔音/元音分(fēn)割

ECG quality assessment based on a kernel support vector machine and genetic algorithm with a feature matrix

Ya-tao Zhang, Cheng-yu Liu, Shou-shui Wei, Chang-zhi Wei, Fei-fei Liu

DOI: 10.1631/jzus.C1300264 Downloaded: 3086 Clicked: 8914 Cited: 10 Commented: 0(p.564-573) <Full Text>   <PPT>  2077

Chinese summary   <29>  基于非線性支持向量機和遺傳算法的移動ECG質量評估

研究目的:爲減少移動設備采集的ECG信号造成的誤報警,避免遠程心電監控中(zhōng)心的誤診和診療資(zī)源浪費(fèi),提高診斷準确率和效率,首先必須評估ECG信号質量。本文采用頻(pín)域、時域相結合的ECG特征分(fēn)析,結合非線性支持向量機(kernelsupportvectormachine, KSVM)和遺傳算法,實現對ECG的質量分(fēn)類。
創新要點:運用頻(pín)域和時域相結合的ECG特征分(fēn)析。對具有易于識别特征(如導聯脫落)的ECG信号,直接依據該特征得出分(fēn)類結果;對依據簡單特征無法評判的ECG信号,提取複雜(zá)時、頻(pín)域特征組成特征矩陣,運用KSVM進行分(fēn)類。
方法提亮:根據ECG特征是否易于識别,分(fēn)步驟采用根據特征直接分(fēn)類和非線性支持向量機智能分(fēn)類技術,降低算法複雜(zá)度和運算量(圖1)。結合頻(pín)域和時域,在ECG特征空間選擇與擴展上進行了有效提升(公式4)。運用遺傳算法優化了SVM參數。
重要結論:時、頻(pín)域結合的特征分(fēn)析能夠較全面地反映ECG特征。KSVM智能分(fēn)類技術能夠有效提高分(fēn)類精度。

ECG質量評估;非線性支持向量機;遺傳算法;功率譜;交叉驗證

A robust optical/inertial data fusion system for motion tracking of the robot manipulator

Jie Chen, Can-jun Yang, Jens Hofschulte, Wan-li Jiang, Cha Zhang

DOI: 10.1631/jzus.C1300302 Downloaded: 3302 Clicked: 8192 Cited: 2 Commented: 0(p.574-583) <Full Text>   <PPT>  2092

Chinese summary   <27>  基于光學攝像系統和慣性傳感器數據融合的機器人運動跟蹤系統

研究目的:機器人運動跟蹤系統對測量精度、采樣頻(pín)率以及系統穩定性都有很高要求,目前市面上廉價的光學攝像運動跟蹤系統難以滿足。慣性傳感器具有采樣頻(pín)率高、穩定性好等優點,但用于運動跟蹤則會産生(shēng)較大(dà)累計誤差;它和光學攝像跟蹤系統可以很好地互補。本文通過卡爾曼濾波算法将慣性傳感器與光學攝像系統進行數據融合,以提升光學攝像系統的測量精度、采樣頻(pín)率以及穩定性,使其更好地用于機器人運動跟蹤。
創新要點:提出了一(yī)種通過慣性傳感器提升光學攝像系統性能的方法。基于對光學攝像系統性能的全面分(fēn)析,提出了一(yī)個有針對性的系統實現方案。
方法提亮:将慣性傳感器提供的加速度、角速度信息與光學攝像系統測得的位置、速度信息進行重力補償和坐标同步處理後,運用卡爾曼濾波算法進行融合。通過分(fēn)析光學攝像系統測量精度的不均勻分(fēn)布情況,爲卡爾曼濾波算法中(zhōng)測量噪聲的估計提供了依據。
重要結論:解決了在系統實現過程中(zhōng)重力補償、坐标同步以及測量噪聲估計等問題。實驗證實,通過數據融合,慣性傳感器可以有效提高光學攝像系統的測量精度、采樣頻(pín)率以及穩定性。

數據融合;卡爾曼濾波;光學攝像系統;慣性傳感器

A framework for analysis of extended fuzzy logic

Farnaz Sabahi, M.-R. Akbarzadeh-T

DOI: 10.1631/jzus.C1300217 Downloaded: 3541 Clicked: 7508 Cited: 2 Commented: 0(p.584-591) <Full Text>   <PPT>  1774

Chinese summary   <34>  一(yī)種分(fēn)析擴展模糊邏輯的架構

研究目的:模糊邏輯的結論蘊含可證明爲有效這一(yī)必要條件,而許多實際應用并不滿足此條件。擴展模糊邏輯是在模糊邏輯基礎上考慮有效性以滿足此條件。目前擴展模糊邏輯理論描述相關工(gōng)作很少。本文提出一(yī)種分(fēn)析擴展模糊邏輯的架構,給出基于擴展模糊邏輯推理的數學描述。
創新要點:首次給出基于擴展模糊邏輯推理的數學描述。引入A-基粒(A-granule)的概念---A-基粒是保留f變換(f-transform)全部特性的最小(xiǎo)基粒。
方法提亮:通過定理證明以及提出A-基粒概念,詳細介紹了擴展模糊邏輯的關鍵特性。
重要結論:在擴展模糊邏輯中(zhōng),不完整信息下(xià)的解接近完整信息下(xià)的解。在相同背景下(xià),兩種情形下(xià)的解與其有效性同構。由本文給出的擴展模糊邏輯理論描述可以明确,完整信息并非解決問題之必需,不過信息越充分(fēn),越能得到确切解。基于擴展模糊邏輯的推理,計算量小(xiǎo),速度快。

擴展模糊邏輯;模糊邏輯;f變換;S解;有效性

Erratum to: Dynamic task scheduling modeling in unstructured heterogeneous multiprocessor systems

Hamid Tabatabaee, Mohammad Reza Akbarzadeh-T, Naser Pariz

DOI: 10.1631/jzus.C13e0204 Downloaded: 1945 Clicked: 3761 Cited: 0 Commented: 0(p.592-592) <Full Text>

Journal of Zhejiang University-SCIENCE, 38 Zheda Road, Hangzhou 310027, China
Tel: +86-571-87952783; E-mail: cjzhang@zju.edu.cn
Copyright © 2000 - 2024 Journal of Zhejiang University-SCIENCE