عنوان مقاله | نویسنده(ها) | مربوط به کنفرانس | چکیده | خرید مقاله |
---|---|---|---|---|
علي رضا بسا ق زاده, علي رضا بهراد, محمدعلي دوستاري
|
چهاردهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
در اين تحقيق استفاده از كانتورهاي IRAD به عنوان ويژگي هاي مستقل از زاويه، براي تخمين زاويه ي چهره در تصاوير
سه بعدي پيشنهاد شده است. با استفاده از اين كانتورها و يك روش
دقيق در تخمين موقعيت بيني به سيستمي براي تخمين زاويه ي چهره
در تصاوير سه بعدي دست يافت هايم. اين سيستم نياز به هيچ نوع داد هي
آموزشي ندارد و بدليل استفاده از داد ههاي عمق چهره نسبت به تغيير
شدت روشهايي محيط مقاوم مي باشد. نتايج پياده سازي اين روش بر روي پايگاه داده ي FRAV3D نشان مي دهد كه روش پيشنهادي در تخمين زاويه داراي دقتي بين درصد 99%- 97% با خطاي 9 درجه در سه محور مختصات مي باشد.
|
||
علي صادقي ناييني, محمد مهدي همايونپور
|
چهاردهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
در اين پژوهش ميزان اهميت زيرباندهاي مختلف سيگنال گفتار در
بازشناسي گوينده سنجيده شده و بر اساس اين ميزان اهميت، يك ويژگي
جديد براي بازشناسي گوينده از همجوشي اطلاعات زيرباندهاي مختلف سيگنال
گفتار بدست آمده است. براي اين منظور نمونه هاي آموزشي و آزمايشي گفتار به
كمك درخت تجزيه تبديل ويولت بسته اي، به 16 زير باند تقسيم شده و هريك
از اين زير باندها بطور مستقل براي بازشناسي گوينده مورد استفاده قرار گرفت .
با توجه به ميزان دقت بازشناسي گوينده بدست آمده براي هر زير باند، اين زير
باندها به 4 رتبه اهميت براي بازشناسي گوينده رتبه بندي شدند . سپس بر
اساس رتبه هر زير باند تعداد معناداري از ضرايب بردار ويژگي حاصل از
همجوشي به زيرباند مربوطه اختصاص يافت. در انتها اين بردار ويژگي در يك
سيستم بازشناسي گوينده مورد استفاده قرار گرفت . نتايج حاصل حاكي از
موفقيت اين ويژگي در تمايز گويندگان مختلف مي باشد بطوريكه توانسته است
94 درصد / براي تصديق هويت 490 نمونه از 35 گوينده به دقت بازشناسي 5
دست يابد.
|
||
علي ضيائي, سيد محمد احدي, حجت اله يگانه, سيد مسعود ميررضايي
|
چهاردهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
در سيستم هاي شناسايي زبان كه از اطلاعات سطح پايين
زباني استفاده مي كنند، معمولا از يك پس پردازنده براي جداسازي
بهتر زبان ها از هم استفاده مي شود. پس پردازنده هاي رايج از نوع مدل
هاي مخلوط گوسي مي باشند كه نياز به دادگان وسيع توسعه اي دارند.
از طرفي تصميم گيري روي بردارهاي خروجي هر فريم گفتاري براي
شناسايي زبان، دقت را بسيار پايين مي آورد. براي رفع اين مشكل ابتدا
توسط كرنل هاي دنباله اي، كل بردارهاي حاصل از يك گفتار را به يك
بردار نگاشت مي كنند و سپس توسط ماشين هاي بردار پشتيبان، اين
بردارها را از هم جدا مي كنند. ما در اين مقاله كرنل دنباله اي جديدي
پيشنهاد كرده ايم كه نسبت به كرنل هاي دنباله اي مشابه كه بهترين
راندمان را در كاربرد شناسايي زبان دارند و همچنين پس پردازنده هاي
گوسي، راندمان سيستم شناسايي زبان را بالاتر مي برد. ما آزمايش هاي خود را روي دو دادگان 2003& 1996 NIST-LRE و OGI-TS 11و 22 زباني انجام داده ايم. نتايج نشان دهنده افزايش نسبي حدودا
4% راندمان شناسايي زبان با استفاده از كرنل دنباله اي پيشنهادي ما
مي باشند.
|
||
محمد كريم سهرابي, احمد عبدالله زاده بارفروش
|
چهاردهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
كاوش داده هايي مانند ميكروآرايه ها كه ابعاد بس يار بالا يي
دارند، باعث به وجود آمدن مشكلات جد ي بر اي اكثر الگور يتم ه اي
كارآمد الگوكاوي موجود مي گردد و كارآ يي آنها را با چالش جد ي
مواجه مي نمايد. در سالهاي اخير متدهاي جديدي ارائه شده كه مبتني
بر شمارش سطرها هستند و با انجام يك جستجوي از پايين به بالا بر
روي فضاي تركيب سطرها سعي در الگوكاوي كارآمد دارند كه با توجه
به تعداد اندك سطرها در داده هاي ميكروآرايه اي، اين روش ها بس يار
كارآمدتر از روش هاي مبتني بر شمارش ستون ها هستند. اما رويكرد از
پايين به بالاي اين روش ها از يك سو و عدم امكان فشرده سازي
مناسب اطلاعات از سوي ديگر سبب شده است كه روش هاي مزبور
فاقد كارآيي كافي به منظور هرس نمودن فضاي جس تجو با توجه به
مقدار حد آستانه مشخص شده توسط كاربر باشند و اين مساله منجر به
طولاني شدن زمان اجرا و ايجاد فضاي سربار در حافظه مي گردد.
در اين مقاله روش جستجوي جديدي به صورت كاوش از بالابه پا يين
مبتني بر نمايش بيتي تراكنش ها بر روي ي ك درخت شمارش سطر
ارائه مي گردد كه امكان استفاده كامل از قدرت هرس كردن توسط حد
آستانه اي داده شده توسط كاربر را فراهم مي نمايد و به كوچك شدن
شگفت انگيز فضاي جستجو مي انجامد . با استفاده از ا ين استراتژ ي جستجو، الگوريتم كاوشي به نام Clobimat طراحي شده است كه قادر به يافتن مجموعه كامل همه الگوه اي تكرارشونده بسته در مجموعه
داده هاي با ابعاد بسيار بالاست. به علاوه روش جديدي براي تست بسته
بودن الگوها ارائه شده است كه مانع از پويش چندين باره مجموعه داده
مي گردد. مطالعات انجام شده نشان داده است كه الگوريتم ارائه شده در
اين مقاله به لحاظ كارآيي برتري قابل ملاحظه اي نسبت به الگور يتم Carpenter كه يك الگور يتم جستجوي پايين به بالا ي فضاي سطرهاست- و الگوريتم FPClose كه يك الگوريتم مبتني بر جستجوي ستون هاست- دارد.
|
||
M. Khazaei, R. Berangi
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
In recent years many researches have focused on
ad-hoc networks, mainly because of their
independence to any specific structure. These
networks suffers from frequent and rapid topology
changes that cause many challenges in their routing.
Most of the routing protocols try to find a path
between source and destination nodes because any
path will expire, offer a short period, the path
reconstruction may cause the network inefficiency.
The proposed protocol build two paths between
source and destination and create backup paths
during the route reply process, route maintenance
process and local recovery process in order to
improve the data transfer and the fault tolerance. The
protocol performance is demonstrated by using the
simulation results obtain from the global mobile
simulation software(Glomosim). The experimental
results show that this protocol can decrease the
packet loss ratio rather than DSR and SMR and it is
useful for the applications that need a high level of
reliability.
|
||
Maedeh Ashouri Talouki, Mohammad-ali NematBakhsh, Ahmad Baraani
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
Blinded data mining is a branch of data mining
technique which is focused on protecting user privacy.
To mine sensitive data such as medical information, it
is desirable to protect privacy and there is not worry
about revealing personalized data. In this paper a new
approach for blinded data mining is suggested. It is
based on ontology and k-anonymity generalization
method. Our method generalizes a private table by
considering table fields ontology, so that each tuple
will become k-anonymous and less specific to not
reveal sensitive information. This method is
implemented using protégé and java for evaluation.
|
||
M. valizadeh, M. komeili, N. armanfard, E. kabir
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
This paper presents an efficient algorithm for
adaptive binarization of degraded document images.
Document binarization algorithms suffer from poor
and variable contrast in document images. We propose
a contrast independent binarization algorithm that
does not require any parameter setting by user.
Therefore, it can handle various types of degraded
document images. The proposed algorithm involves
two consecutive stages. At the first stage, independent
of contrast between foreground and background, some
parts of each character are extracted and in the second
stage, the gray level of foreground and background are
locally estimated. For each pixel, the average of
estimated foreground and background gray levels is
defined as threshold. After extensive experiments, the
proposed binarization algorithm demonstrate superior
performance against four well-know binarization
algorithms on a set of degraded document images
captured with camera.
|
||
Ali Nodehi, Mohamad Tayarani, Fariborz Mahmoudi
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
Quantum Evolutionary Algorithm (QEA) is a
novel optimization algorithm which uses a probabilistic
representation for solution and is highly suitable for
combinatorial problems like Knapsack problem. Fractal image
compression is a well-known problem which is in the class of
NP-Hard problems. Genetic algorithms are widely used for
fractal image compression problems, but QEA is not used for
this kind of problems yet. This paper uses a novel Functional
Sized population Quantum Evolutionary Algorithm for fractal
image compression. Experimental results show that the
proposed algorithm has a better performance than GA and
conventional fractal image compression algorithms.
|
||
Heshaam Faili
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
Increasing the domain of locality by using treeadjoining-
grammars (TAG) encourages some
researchers to use it as a modeling formalism in their
language application. But parsing with a rich
grammar like TAG faces two main obstacles: low
parsing speed and a lot of ambiguous syntactical
parses. We uses an idea of the shallow parsing based
on a statistical approach in TAG formalism, named
supertagging, which enhanced the standard POS tags
in order to employ the syntactical information about
the sentence. In this paper, an error-driven method in
order to approaching a full parse from the partial
parses based on TAG formalism is presented. These
partial parses are basically resulted from supertagger
which is followed by a simple heuristic based light
parser named light weight dependency analyzer
(LDA). Like other error driven methods, the process of
generation the deep parses can be divided into two
different phases: error detection and error correction,
which in each phase, different completion heuristics
applied on the partial parses. The experiments on Penn
Treebank show considerable improvements in the
parsing time and disambiguation process.
|
||
A. Nadi, S. S. Tayarani-Bathaie, R. Safabakhsh
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
In this paper we present a new approach for
evolving an optimized neural network architecture for a
three layer feedforward neural network with a mutation
based genetic algorithm. In this study we will optimize the
weights and the network architecture simultaneously
through a new presentation for the three layer feedforward
neural network. The goal of the method is to find the
optimal number of neurons and their appropriate weights.
This optimization problem so far has been solved by looking
at the general architecture of the network but we optimize
the individual neurons of the hidden layer. This change
results in a search space with much higher resolution and an
increased speed of convergence. Evaluation of algorithm by
3 data sets reveals that this method shows a very good
performance in comparison to current methods.
|
||
حميد اسدي, محمد حسين كهايي
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
اين مقاله مسئله جداسازي كور سيستمهاي طيف گسترده پرش فركانسي (FHSS) را با استفاده از يك المان آرايهاي بدون دانستن الگوي پرش و يا جهت سيگنال ورودي (DOA) براي كاربردهاي زمانحقيقي مورد بررسي قرار ميدهد. در اين مقاله
الگوريتم مورد استفاده، الگوريتم تخمين و قطري سازي توام ماتريس كاميولنت (JADE) ميباشد. مزيت اين الگوريتم، سرعت بالاي آن ميباشد كه باعث شده است براي كاربردهاي زمان-حقيقي مناسب باشد. اما مشكل الگوريتم JADE رعايت نكردن ترتيب منابع يا جايگشت آنها به هنگام جداسازي است. براي حل مشكل جايگشت
در اين مقاله، از ماتريس همبستگي استفاده ميكنيم.
|
||
مسعود هادیان دهکردی, رضا علیمرادی, علیرضا شاه حسینی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
حمید مهدی, امیرمسعود رحمانی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
رحمت قاسمی, علی داد, محمد نقیبزاده
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
عماد ابراهیمی, حبیب رجبی مشهدی, ساسان ناصح
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
تکتم ذوقی, رضا بوستانی, پیمان گیفانی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
مریم زمردی مقدم
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
سعید حیاتی, سعید سریزدی, حسین نظامآبادیپور, اسماء شمسی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
علیرضا شاهحسینی, سیدعلیاصغر بهشتی شیرازی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
صادق علیاکبری
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|