عنوان مقاله | نویسنده(ها) | مربوط به کنفرانس | چکیده | خرید مقاله |
---|---|---|---|---|
تارا اخوان, مهرنوش شمس فرد, مونا عرفاني جورابچي
|
چهاردهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
با توجه به افزايش حجم مستندات متني، براي پاسخگويي به
نيازهاي اطلاعاتي كاربران، ديگر تكنيكهاي بازيابي اطلاعات به تنهايي
كارا نيستند . مطالعه حجم زياد متون ب راي كاربران بسيار سخت و
زمانگير است و دراختيار داشتن خلاصه اي از مطالب مهم آنها، مي تواند
بسيار مفيد باشد . فرآيند فشرده سازي يك منبع به صورتي كه حاصل
حاوي اطلاعات مهم آن باشد را خلاصه سازي گويند . خلاصهسازي متون
منجر به استفاده از منابع بيشتر با سرعت بالاتر و در نتيجه حاصل شدن
اطلاعات غنيتر ميشود.
در اين مقاله ابتدا به بررسي انواع سيستم هاي خلاصه سازي خودكار و
مروري بر سيستم هاي خلاصه سازي فارسي خواهيم پرداخت . سپس به معرفي سيستم خلاصه سازي فارسي ساخته شده با نام PARSUMIST پرداخته و نتايج ارزيابي سيستم و مقايسه آن با نمونه هاي مشابه را ارائه
خواهيم نمود . سيستم معرفي شده از تركيبي از روش هاي كلاسيك،
آماري و معنايي براي توليد خلاصه مستخرج از متون تك سندي و
چندسندي فارسي بهره ميبرد.
|
||
محمد حسين حاج كاظمي, محمد باقر غزنوي قوشچي
|
چهاردهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
در اين مقاله روشي جديد از پياده سازي كدينگ سازگار با
اعمال تغييراتي در پياده سازي الگوريتم هافمن سازگار ارائه شده است .
تغييرات به وجود آمده موجب كاهش تعداد تغييرات بيتي در بيت هاي
خروجي كد كننده و در نهايت كاهش مصرف توان در كدكننده و
ديكدكننده مي شود. تغييراساسي اعمالي در روش ارئه شده ، شامل
حذف مرحله ي به روز رساني درخت هافمن سازگار بعد از اولين رخداد
هر نماد منبع، و تغيير در نحوه ي به روزرساني درخت است. به منظور
- ارزيابي روش ارائه شده از دوگروه فايل به عنوان منبع استفاده شد : 1
فايل متني 2- فايل تصويري تبديل شده به فايل متني توسط MIME64 نتايج به دست آمده از به كار گيري روش فوق در كدكردن فايل هاي كاراكتري در 4 گروه با حجم هاي متفاوت از 100 بايت تا
1000 كيلو بايت، كاهش به طور متوسط 40 % و 17 % تغييرات بيتي به
ترتيب نسبت به روش هاي كدينگ اسكي و هافمن سازگار را نشان داد.
همچنين روش ارائه شده بر روي 14 تصوير محك كاهش تقريبي و به
ترتيب 42 % و 23 % تغييرات بيتي را با استفاده از روش مذكور نس بت
به روش هاي كدينگ اسكي و ويتر را نشان مي دهد.
|
||
مهديه محمدصالحي, عليرضا بهراد
|
چهاردهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
در اين مقاله يک روش مبتني بر ناحيه براي ثبت تصاوير
هوايي که نسبت به چرخش و ت غيير م قياس حساس ن ميباشد، ارائه شده
است. متداولترين ا شياء موجود در تصا وير هوايي سطوح بامها ميباشن د
که نوا حي با محتواي اطلاعا تي ک م ايجاد ميکنن د. با استفاده از اين
خصوصيت هست ه هاي اوليه يافته شده و با کمک روش رشد ناحيه،
نواحي مطلوب استخرا ج و مراکز جرم آنها بعنوان نقاط مشخصه انتخاب
ميشوند. در شروع فرآيند جستجو براي يافتن نقاط متناظر، با استفاده از
اطلاعات شکلي به هر ناحيه تعدادي کانديداي تناظر نسبت داده ميشود.
بمنظور کاهش تعداد کانديداها شرط همساي گي را اعمال ميکني م. با
توجه به شباهت توزيع زا ويه اي جفتهاي صحي ح نسبت به ه م در دو
تصوير و اي نکه نسبت تغيير مقياس بين تمام جفتهاي صحي ح، داراي
مقداري ثابت و برابر با تغيير مقياس بين دو تصوير ميباش د، بر اسا س مفهومي از برچسب گذاري relaxation relaxation عمومي در فرآيند جستجو ميشوند را م ي يابيم. در پ ايان با رأي گيري
بين توابع تبديل ، جفته اي ص حيح نه ايي استخراج ميشوند. الگوريتم بر
روي تصاوير متعددي از شهر تهران تست شده و در ۸۰ % از تصاوي ر با
مقياس ۱تا ۳ و در ۱۰۰ % تصاوير با مقياس ۱ و چرخش صفر تا ۳۶۰
درجه نتايج صحيحي بدست آمده است.
|
||
Bahareh J. Farahani, Mahmood Fathy
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
In this paper we proposed a new approach for
improving distribution and coverage of mobile sensors
in a target filed. The goal is to deploy sensors such that
a target area is optimally covered by them. Proposed
method works based on number of neighbors. The
nodes which have the minimum overlaps with its
neighbors start to move away according to summation
of forces from their neighbors, boundaries and
obstacles. In order to achieve optimum coverage, the
effect of field corners is also calculated. For
evaluating the effectiveness of our proposed algorithm,
we compared the performance of our algorithm with
TRI and VEC which are well known algorithms in field
of mobile sensors coverage. Simulation results show
that our algorithm surely surpasses TRI and VEC in
coverage.
|
||
A. H. Momeni Azandaryani, M. R. Meybodi
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
In this paper we propose an artificial immune
system in which learning automata are used to
adaptively determine the values of its parameters.
Learning automata are used for altering the shape of
receptor portion of antibodies to better
complementarily match the confronted antigen. In
order to show the effectiveness of the proposed
artificial immune computer experiments have been
conducted. The result of experimentations confirms the
effectiveness of the proposed model.
|
||
Parastoo Didari, Behrad Babai, Azadeh Shakery
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
Text retrieval engines, such as search engines,
always return a list of documents in response to a given
query. Existing evaluations of text retrieval algorithms
mostly use Precision and Recall of the returned list of
documents as main quality measures of a search engine. In
this paper, we propose a novel approach for comparing
different algorithms adopted by different search engines
and evaluate their performance. In our approach, the
results of each algorithm is treated as an inter-related set of
documents and the effectiveness of the algorithm is
evaluated based on the degree of relation in the set of
documents. After verifying the correctness of the evaluation
measure by examining the results of the two retrieval
algorithms, BM25 and pivoted normalization, and
comparing these results with an ideal ranking, we compare
the results of these algorithms and investigate the impact of
certain major factors like stemming on the results of the
suggested algorithm. The effectiveness of our proposed
method is justified through obtained experimental results.
|
||
Mohamad Alishahi, Mehdi Ravakhah, Baharak Shakeriaski, Mahmud Naghibzade
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
One of the most effective ways to extract knowledge
from large information resources is applying data
mining methods. Since the amount of information on
the Internet is exploding, using XML documents is
common as they have many advantages. Knowledge
extraction from XML documents is a way to provide
more utilizable results. XCLS is one of the most
efficient algorithms for XML documents clustering. In
this paper we represent a new algorithm for clustering
XML documents. This algorithm is an improvement
over XCLS algorithm which tries to obviate its
problems. We implemented both algorithms and
evaluated their clustering quality and running time on
the same data sets. In both cases, it is shown that the
performance of the new algorithm is better.
|
||
Ali Nouri, Hooman Nikmehr
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
In a quest for modeling human brain, we are going to introduce a brain model based on a general framework for brain called Memory-Prediction Framework. The model is a hierarchical Bayesian structure that uses Reservoir Computing methods as the state-of-the-art and the most biological plausible Temporal Sequence Processing method for online and unsupervised learning. So, the model is called Hierarchical Bayesian Reservoir Memory (HBRM). HBRM uses a simple stochastic gradient descent learning algorithm to learn and organize common multi-scale spatio-temporal patterns/features of the input signals in a hierarchical structure in an unsupervised manner to provide robust and real-time prediction of future inputs. We suggest HBRM as a real-time high-dimensional stream processing model for the basic brain computations. In this paper we will describe the model and assess its prediction accuracy in a simulated real-world environment.
|
||
Behzad Omidali, S. Ali-Asghar Beheshti Shirazi
|
چهاردهمین کنفرانس بینالمللی سالانه انجمن کامپیوتر ایران
|
In this paper a two step method based on Gauss-
Newton and factor graphs algorithm is proposed for
localization to enhance accuracy of localization. The
Gauss-Newton algorithm is accurate method for
positioning. The most important challenge of this
method is senility to initial point; this problem is
solved in positioning based on factor graphs. So, in
this paper, first positioning equations using angle of
arrival is considered based on factor graphs
algorithm. Second, final location estimation is
performed using Gauss Newton algorithm with error
near to Cramer-Rao bound. Simulation results shows
that positioning error using two step method has
maximum 6% gap to Cramer-Rao Bound.
|
||
آرش عزیزی مزرعه, محمدتقی منظوری
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
زهرا رهائی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
ابوالفضل محمودنیا
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
مریم شهابی لطفآبادی, امیرمسعود افتخاریمقدم
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
سلمان گلی بیدگلی, کمال جمشیدی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
محمدمهدی جوانمرد, سلیمه جوادیان
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
ایمان برازنده, سیدسعیداله مرتضوی, مهدی مدادیان
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
مجید تقیپور علی بیگلو, سعید محمد جعفری, قنبر توسلی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
محمد صبری, علیرضا عصاره, بیتا شادگار
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
امیر امیدی, محمد عبداللهی ازگمی, اسماعیل نورانی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|
||
مهدی مهدیخانی, محمدحسین کهایی
|
پانزدهمین کنفرانس ملی سالانه انجمن کامپیوتر ایران
|
|