research centers


Search results: Found 7

Listing 1 - 7 of 7
Sort by

Article
Effective Web Page Crawler

Authors: Isra’a Tahseen Ali --- Hilal Hadi Saleh
Journal: Engineering and Technology Journal مجلة الهندسة والتكنولوجيا ISSN: 16816900 24120758 Year: 2011 Volume: 29 Issue: 3 Pages: 513-530
Publisher: University of Technology الجامعة التكنولوجية

Loading...
Loading...
Abstract

The World Wide Web (WWW) has grown from a few thousand pages in1993 to more than eight billion pages at present. Due to this explosion in size,web search engines are becoming increasingly important as the primary meansof locating relevant information.This research aims to build a crawler that crawls the most important webpages, a crawling system has been built which consists of three maintechniques. The first is Best-First Technique which is used to select the mostimportant page. The second is Distributed Crawling Technique which based onUbiCrawler. It is used to distribute the URLs of the selected web pages toseveral machines. And the third is Duplicated Pages Detecting Technique byusing a proposed document fingerprint algorithm.


Article
Enhancement of Ranking and Query Optimizer in Internet Search Engine
تحسين خوارزميات معالجة الرتب و الاستفسار في محرك بحث الانترنيت

Author: Moaid A. Fadhil
Journal: Al-Rafidain University College For Sciences مجلة كلية الرافدين الجامعة للعلوم ISSN: 16816870 Year: 2006 Issue: 19 Pages: 99-122
Publisher: Rafidain University College كلية الرافدين الجامعة

Loading...
Loading...
Abstract

The World Wide Web (WWW) allows people to share information globally. The amount of information grows without bound. In order to extract information that we are interested in, we need a tool to search the Web. The tool is called a search engine. This research aims to build a ranking system to retrieve the most relevant Web pages with the queries that are presented by the users; the ranking system depends on Web pages content and their hyperlinks’ structure. To retrieve the optimal results, the modified ranking system consists of two main subsystems. The first subsystem is Term-based Ranking subsystem that assigns a rank score to the Web pages depending on their contents by implementing TF-IDF Algorithm and Vector Spreading Activation Algorithm. And the second subsystem is Link-based Ranking subsystem that assigns a rank score to the Web pages depending on their hyperlinks by implementing an improved PageRank algorithm. Enhanced Indexing Process is considered as a main tool that supports in retrieving best results.

وفرت الشبكة العنكبوتية العالمية المعلومات لكل بقاع العالم. حيث حجوم بياناتها تتزايد بصورة لا يمكن ان نتصور حدود لها. ولغرض الحصول على المعلومات المطلوبة فان هذه الشبكة اتاحت اداة هي محركات البحث. هذا البحث يهدف الى بناء منظومة الرتب لاسترجاع صفحات الويب الاكثر ملائمة للأستفسارات المقدمة من قبل المستفيدين حيث ان هذه المنظومة تعتمد على المحتوى وهيكل الارتباطات الفائقة لصفحات الويب. لغرض استرجاع افضل النتائج تم الاعتماد على بناء منظومة رتب تتكون من جزئين, الاول يختص باعطاء الرتب لصفحات الانترنيت اعتمادا على محتوياتها المفرداتية وذلك باستخدام خوارزمية TF-IDF وخوارزمية VECTOR SPREADING ACTIVATION ، والجزء الثاني يختص باعطاء الرتب لصفحات الانترنيت بالاعتماد على ارتباطاتها الفائقة وذلك باستخدام خوارزمية PAGERANK المحسنة. تعتبر عمليات الفهرسة المحسنة من الوسائل التي ساعدت في الحصول على افضل النتائج بالاضافة الى امثلية الاستفسار سواء كان من النوع الاعتيادي او المتقدم.


Article
Improvement Personalization of Website Using Database and Cookies

Author: Ekhlas Khalaf Gbashi
Journal: Engineering and Technology Journal مجلة الهندسة والتكنولوجيا ISSN: 16816900 24120758 Year: 2010 Volume: 28 Issue: 8 Pages: 1596-1614
Publisher: University of Technology الجامعة التكنولوجية

Loading...
Loading...
Abstract

Personalization involves taking some set of inputs and returningrecommendations to users through some types of computations. The method by whichthe personalization is performed depend on the type of data presented as input, therequired representation of the output and (in some cases) the speed and accuracy bywhich the output must be computed.This research tends to build the personalization in a new view, since it builds thepersonalization in the client in addition of the personalization in the server and usingmobile agent. That by making the personalization for improvement the speed andefficiency of search in crawling, producing a technique, that technique involverecording the previous user’s searches in cookies and databases then if the user try tomake a search on other time the proposed system will produce to him all the previoussearch’s results and the latest results from www. The tools used in the proposedsystem are SQL server 2000, HTML, ASP, Java script and two computers onepresents server and the second presents the client.

الخصوصيه تتضمن اخذ بعض مجاميع المدخلات وتقوم بارجاع التوصيات الى المستخدمين عبربعض الانواع من العمليات الاحتسابيه .طريقة الخصوصيه المعده تعتمد على نوع البيانات المقدمهكمدخل، والتمثيل المطلوب للمخرجات(وفي بعض الحالات)السرعه والدقه للحصول على المخرجاتمن خلال الحسابات المختلفه.هذا البحث يهدف الى بناء الخصوصيه برؤيه جديده،حيث ان الخصوصيه تبنى عند الزبون بالاضافهالى الخصوصيه عند الخادم واستخدام الوكيل الجوال، هذا يتم من خلال بناء الخصوصيه لتحسين من خلال تقديم تقنية مقترحه هذه ،(crawling) السرعه و الكفاءه لعمليات البحث في برنامج النساجالتقنيه تتضمن تسجيل نتائج بحث المستخدم (كل مستخدم ) السابق في داخل قواعد البياناتثم في حالة ان المستخدم حاول ان يقوم بعملية بحث في وقت لاحق ،النظام (cookies) والمسجلاتالمقترح سوف يقدم له كل نتائج البحث السابق واخر النتائج الموجوده في وقت البحث الحالي منالشبكه العنكبوتيه.JAVA SCRIPT ولغة HTML ولغة SQL الادوات المستخدمه بالنظام المقترح هي 2000بالاضافة الى حاسبتين احدهما تمثل الزبون والاخرى الخادم . ASP ونظام


Article
The Role of Using Search Engines In Achieving The Individual Innovation A Survey Study For The Opinions Of A Sample Of Postgraduate Students In The College Of Administration And Economics - Mosul University
دور استخدام محركات البحث في تحقيق الإبداع الفردي دراسة استطلاعية لآراء عينة من طلبة الدراسات العليا في كلية الإدارة والاقتصاد جامعة الموصل

Authors: Bassam Abdalrahman Yousif بسام عبدالرحمن يوسف --- Ruqia Sami Sharif رقية سامي شريف
Journal: TANMIAT AL-RAFIDAIN تنمية الرافدين ISSN: PISSN: 1609591X / EISSN: 2664276X Year: 2013 Volume: 35 Issue: 114 following Pages: 49-68
Publisher: Mosul University جامعة الموصل

Loading...
Loading...
Abstract

The study tackled the role of the use of search engines to achieve the individual innovation. The study has presents a theoretical framework of the study variables, as well as the operational framework, which includes the analysis of the views of a selected sample represented by postgraduate students in the college Administration and Economics.A set of research questions that formed the problem of the study and among them : "Is there a relationship and influence between the search engines and individual innovation?"A test of the correlation and the effect between the independent variable "search engines" that presented by independent variables and the dependent variable "individual innovation". The study concludes to several conclusions:• The relatively rise in the answers of the students about the use of search engines to find new topics regards as one of the aspects more relevant to individual innovation and this emphasizes seeking to present the innovative and distinctive.The study concludes many conclusions presenting some suggestions including: (the necessity of using the specialized search engines by the students when they need to recover the subjects which have a high degree of specialization so that they are not available in general search engines except about the limited side.

سعت الدراسة للتعرف على دور استخدام محركات البحث في تحقيق الإبددا لدد البداحيي،وقدددمت الدراسددة إطدداران ريريددان لمددا قدمدد البدداحيو، لمتغيددرا الدراسددة فعددان عدد، الإطددار العملدديوالمتعم، تحليا ن لآراء عيرة مختارة عم، مجتمع الدراسة والمتميلة ب 53 طالب ان وطالبة م، طلبدةالدراسات العليا في كلية الإدارة والاقتصاد. وقدد لجدتت الدراسدة لمعالجدة مةدكلة عددم وعدو دورمحركات البحث في إرجاز بحوث علمية تتسم بالإبدا .ولغرض تحقيق ذلك فقد تم استخدام الاستبارة بوصفها الأداة البحييدة الرئيسدة لجمدع البياردات.ولقد سعت الدراسة للإجابة ع، مجموعدة التسدالالات كدا، مد، ربرز دا التسدالال الآتدي " دل توجددعاقة ارتباط وتتيير بي، محركات البحث والإبدا الفردا" وقد تم اختبار عاقة الارتباط والتدتييربي، المتغير المستقل )محركات البحث( والمتغيدر المعتمدد )الإبددا الفدردا( وقدد تدم التوصدل مد،خال ذه الدراسة إلى عدة استرتاجات لعل م، ر مها إ، الارتفددا الرسددبي فددي إجابددات الطلبددة عيرددة الدراسددة بخصددوا اسددتخدام محركددات البحددثلإيجاد موعوعات جديددة تعدد مد، ركيدر الجوارد صدلة لتحقيدق الإبددا الفدردا و دذا مايلاكددسعيهم لتقديم بحوث علمية مبتكرة ومتميزة.ولقد دفعت جملدة الاسدترتاجات التدي تدم التوصدل إليهدا إلدى تقدديم بعدض المقترحدات كدا، مد،ربرز ا عرورة اسدتخدام الطلبدة عيردة الدراسدة محركدات البحدث المتخصصدة عردد الحاجدة لاسدترجاموعوعات تتسم بدرجة عالية م، التخصا بحيث إرهدا لا تتدا فدي محركدات البحدث العامدةإلا على رحو محدود.


Article
A Proposal of Deep Web Crawling System by using Breath-first Approach
اقتراح نظام غواص للويب العميق بااستخدام طريقة السعه اولا

Author: . Israa Tahseen اسراء تحسين
Journal: Iraqi Journal of Information Technology المجلة العراقية لتكنولوجيا المعلومات ISSN: 19948638/26640600 Year: 2018 Volume: 9 Issue: 2 اللغة الانكليزية Pages: 48-61
Publisher: iraqi association of information الجمعية العراقية لتكنولوجيا المعلومات

Loading...
Loading...
Abstract

A lot of data on the WWW stay unavailable to crawlers of web search engines, so it must uncovered data when the users submits form with valid inputs. The obscure of some portion of web which is hidden behind the interfaces is define as a Deep web, It is also called invisible web. Around 96% of data are hidden behind the Deep web interfaces. This paper aims to build a Deep web Crawling system that extract the hidden data and all hyperlinks that are pointing to other web pages by using Breath-first search. The concluded issues in this research are: downloading the deep web content by using the surfacing approach with un-structural DB, the yielded results prove that a higher quality pages which relevant to user query is displayed to the user at the top of the results list.

الكثير من البيانات الموجودة على الشبكة العنكبوتية العالمية لاتزال غير متاحه للغوص من قبل محركات البحث , في ضوء الحقيقة لابد من الكشف عن هذه البيانات عند الطلب من قبل المستخدم عندما يقوم بملئ .النموذج. الجزء الغامض من الويب والذي يكون مخبأ وراء الواجهات يعرف بالويب العميق ويسمى ايضا بالويب الغير مرئي , حوالي %96 من البيانات تكون مخفيه وراء واجهات الويب العميق. هذه الرسالة تهدف الى بناء نظام الغوص العميق للويب الذي يستخرج البيانات المخفية وكذلك جميع الروابط التشعبيه التي تشير الى صفحات الويب الاخرى بااستخدام طريقة السعه اولا. الاستنتاجات التي تم التوصل إليها في هذا البحث هي: تحميل محتويات الويب العميق بواسطة استخدام طريقه الطفو السطحي مع قواعد البيانات الغير مهيكله, والنتائج المدخله اثبت بان الصفحات ذات الجوده العاليه بالنسبه لاستعلام المستخدم يتم عرضها للمستخدم في اعلى قائمة النتائج

Keywords

Deep Web --- Crawler --- Search Engine --- Token --- Hidden data.


Article
INTERNET SEARCH ENGINES SYSTEM FEATURES, OPERATORS AND COMPARISONS
محركات البحث المستخدمة في الانترنيت

Author: Maisaa Ibrahem Abdul-Hussain
Journal: AL-TAQANI مجلة التقني ISSN: 1818653X Year: 2011 Volume: 24 Issue: 8 Pages: E125-E132
Publisher: Foundation of technical education هيئة التعليم التقني

Loading...
Loading...
Abstract

Internet search engine is a program designed to help find information stored on a computer system such as the World Wide Web (WWW), or a personal computer. Millions of people around the world use i.nternet search engines and use regularly updated indexes to operate quickly and efficiently. Internet search engines work an attempt to match search query with the content of web pages that is has stored, or cached, and indexed on its powerful servers in advance of search. This paper presents a comparison between two of the most popular internet search engines Google and Yahoo according to the system features, time spend in search, number of results and percentage of world searches. Search results show that Google employs a number of techniques to improve search quality including pagerank and anchor text

محرك البحث في الأنترنيت عباره عن برنامج يصمم للمساعــده في ايجاد المعلومه المخزونه في نظــام الكومبيوتــر مثـل الشبكه العنكبوتيه العالميه (www) او اي حاسبه شخصيه. محركات البحث تستخدم من قبل ملايين الناس حول العالم وتستخدم نظام فهرسة محدث للعمل بسرعــه وكفاءه .عمل محركات البحث في الانترنيت محاولة لمطابقة الطلب مع محتوى صفحات الأنترنت المخزونة. هذا البحث يقدم نتائج المقارنة بين اثنين من اشهر محركات البحث Google وYahoo اعتمادا على خصائص النظام ,الوقت المستغرق,عدد النتائج والنسبة المئوية للبحث عالميا.تشير نتائج البحث ان Google يستخدم عدد من التقنيات لتحسين نوعية البحث تتضمن الpagerank ,anchor text)) مما يجعله افضل في مجال البحث والنتائج التي يظهرها


Article
دراسة حول تصنيفات الويبوماتركس (Webometrics Ranking)

Author: ازهر عباس هادي
Journal: Journal of University of Babylon مجلة جامعة بابل ISSN: 19920652 23128135 Year: 2017 Volume: 25 Issue: 4 Pages: 1267-1272
Publisher: Babylon University جامعة بابل

Loading...
Loading...
Abstract

Webometrics coined the term in 1997 and within which the study of Web networks of information and resources and electronic information technology after the application of the foundations of electronic analysis called (bibliometric) and these ratings as a result of the research laboratories (Cybermetrics Lab) and belong to a larger body of the General Research in Spanish and through the Institute (CSIC (Consejo Superior de Investigations Científicas Higher Council for scientific Research was launched these ratings for the first time in 2004 and is updated twice (in the eighth month in the second month of the year ie January and July)( http://www.webometrics.info/en/About_Us( And based on the vision of publications and indicators on the Internet and this system classifies universities based on the strength of their own websites as well as the Academy of warehouses and encourages all educational institutions, scientists and researchers to have a presence in Web networks and show the most prominent scientific activities as well as to increase and encourage the electronic publications that have a role in the quality of operations research and activities of the university in the global search engines.

اصبحت تصنيفات الويبوماتركس (http://www.webometrics.info/en/About_Us )،عاملاً مهماً في تصنيفات جامعات العالم والوصول الى مستوى العام لها وهي بشكل عام انعكاس لأداء المؤسسات التعليمة في جميع انحاء العالم اليوم على شبكة الإنترنت، وهذا النوع من التصنيف يستخدم مؤشرات على شبكة الإنترنت من خلال المواقع الالكترونية الخاصة بها لقياس أداء الجامعات بالتزامن مع مؤشرات الأكاديمية الأكثر تقليدية ، مع ملاحظة وفهم ان هذه التصنيفات هي من انتاج مؤسسات ربحية تعتمد بشكل كبير على الارباح المادية بأساليب خاصة ومعتمدة. تهدف هذه الدراسة الى:1 - معرفة تصنيفات الويبوماتركس الخاصة بجامعات العالم . 2- منذ متى تم اطلاق هذه التصنيفات. 3- من عمل على اطلاقها ودراستها عن قرب وبشكل دقيق. 4- على ماذا تعتمد في قياساتها وهل ان الوغارتيمية الخاصة بمحركات البحث الكوكل (Google search engine) هي اعتمادها الوحيد والموثوق وكذلك المحركات الخاصة بالملفات وهي (Google scholar) (https://scholar.google.com/intl/en/scholar/about.html )، الذي من خلاله يتم البحث عن الملفات من جميع الانواع (doc. , pdf. , ppt ....الخ) .

Listing 1 - 7 of 7
Sort by
Narrow your search

Resource type

article (7)


Language

English (5)

Arabic (2)


Year
From To Submit

2018 (1)

2017 (1)

2013 (1)

2011 (2)

2010 (1)

More...