സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഷൻഒരു വെബ്സൈറ്റ് അല്ലെങ്കിൽ ഒരു വെബ് താൾ സെർച്ച് എഞ്ചിനുകൾ ഉപയോഗിച്ചുള്ള വെബ് തിരച്ചിലുകളിൽ പെട്ടെന്ന് കണ്ടെത്തപ്പെടുകയും അത് വഴി കൂടുതൽ സന്ദർശകരെ ആ വെബ്സൈറ്റിലേക്ക് എത്തിക്കുകയും ചെയ്യുന്ന പ്രക്രിയയാണ് സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഷൻ അഥവാ എസ്.ഇ.ഒ(SEO). സാധാരണഗതിയിൽ തിരച്ചിൽ ഫലത്തിൽ മുന്നിലെത്തുന്നതും, കൂടുതലായി തിരച്ചിൽ ഫലങ്ങളിൽ വരുന്നതും സെർച്ച് എഞ്ചിൻ വഴി കൂടുതൽ സന്ദർശകരെ ലഭിക്കുന്നതിന് കാരണമാകുന്നു. എസ്.ഇ.ഒ. ചിത്രങ്ങളുടെ തിരച്ചിൽ, പ്രാദേശിക തിരച്ചിൽ, ചലച്ചിത്ര തിരച്ചിൽ, വിദ്യാഭ്യാസം സംബന്ധമായ തിരച്ചിൽ,[1] വാർത്താ തിരച്ചിൽ തുടങ്ങി വ്യത്യസ്ത തരത്തിലുള്ള തിരച്ചിലുകളെ ലാക്കാക്കിയുള്ളതാവാം. സെർച്ച് എഞ്ചിനുകളുടെ പ്രവർത്തന രീതി, ആൾക്കാർ എന്തൊക്കെ തിരയുന്നു, തിരച്ചിലിനായി ഉപയോഗിക്കപ്പെടുന്ന പദങ്ങൾ, ഏതൊക്കെ സെർച്ച് എഞ്ചിനുകളാണ് ലക്ഷ്യംവയ്ക്കപ്പെട്ടിരിക്കുന്ന വിഭാഗം ആൾക്കാർ പരിഗണിക്കുന്നത് തുടങ്ങിയവ ഇന്റർനെറ്റ് വിപണനതന്ത്രമനുസരിച്ച് എസ്.ഇ.ഒ. യിൽ പരിഗണിക്കുന്നു. നിശ്ചിത കീവേഡുകൾക്ക് വേണ്ടി വെബ്സൈറ്റിന്റെ അല്ലെങ്കിൽ വെബ് താളിന്റെ ഉള്ളടക്കവും എച്ച്.ടി.എം.എൽ. ഉം അനുബന്ധ കോഡുകളും തിരുത്തുകയും അതുവഴി സെർച്ച് എഞ്ചിനുകളുടെ ഇൻഡക്സിങ്ങ് പ്രക്രിയകളിലെ പ്രതിബന്ധങ്ങളിൽ മുന്നേറ്റമുണ്ടാക്കുകയുമാണ് മെച്ചപ്പെടുത്തലിൽ ചെയ്യുന്നത്. SEO സെർച്ച് എഞ്ചിൻ ദൃശ്യതയും ഉപയോക്തൃ അനുഭവവും മെച്ചപ്പെടുത്തുന്നു.[2] ബാക്ക്ലിങ്കുകൾ വർദ്ധിപ്പിക്കുന്നതിനായി സൈറ്റിന്റെ പ്രചാരം വർദ്ധിപ്പിക്കുന്നത് എസ്.ഇ.ഒ യിലെ ഒരു കൗശലമാണ്. സേവന സ്വീകർത്താക്കൾക്ക് വേണ്ടി ഇത്തരം മെച്ചപ്പെടുത്തലുകൾ ചെയ്തു നൽകുന്ന സംഘത്തേയും വ്യക്തികളേയും പൊതുവേ SEOs (സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഴ്സ്) എന്നാണ് ബന്ധപ്പെട്ട മേഖലയിൽ പൊതുവായി സൂചിപ്പിക്കുന്നത്. സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഴ്സ് അവരുടെ എസ്.ഇ.ഒ. സേവനം പ്രത്യേകമായോ അല്ലെങ്കിൽ വലിയൊരു വിപണന പ്രചാരണ യജ്ഞനത്തിന്റെ ഭാഗമായോ നൽകാറുണ്ട്. ഫലപ്രദമായ എസ്.ഇ.ഒ. യ്ക്ക് എച്ച്.ടി.എം.എൽ. സോഴ്സ് കോഡിൽ മാറ്റം വരുത്തുന്നത് അനിവാര്യമായതിനാൽ എസ്.ഇ.ഒ. തന്ത്രങ്ങൾ വെബ്സൈറ്റ് വികസനത്തിന്റേയും രൂപകല്പനയുടേയും ഭാഗമാക്കാറുണ്ട്. രൂപകല്പനകൾ, മെനുകൾ, കണ്ടന്റ് മാനേജ്മെന്റ് സിസ്റ്റങ്ങൾ, ചിത്രങ്ങൾ, വീഡിയൊകൾ, ഷോപ്പിങ്ങ് കാർട്ടുകൾ തുടങ്ങിയവ സെർച്ച് എഞ്ചിനുകളുടെ നോട്ടത്തിലാകുന്നതിനു വേണ്ടി മെച്ചപ്പെടുത്തിയതാണ് എന്ന് സൂചിപ്പിക്കുന്നതിനു വേണ്ടി "സെർച്ച് എഞ്ചിൻ ഫ്രണ്ട്ലി" എന്ന പദമുപയോഗിക്കുന്നു. ചരിത്രം1990 കളുടെ മദ്ധ്യത്തിലാവിർഭവിച്ച ആദ്യകാല സെർച്ച എഞ്ചിനുകൾ വെബ്ബിനെ പറ്റിയുള്ള വിവരങ്ങൾ ക്രോഡീകരിച്ചവതരിപ്പിക്കുമ്പോൾ തന്നെ വെബ്മാർസ്റ്റർമാരും ഉള്ളടക്കദാതാക്കളും അവരുടെ സൈറ്റുകളെ അതിനു വേണ്ടി മെച്ചപ്പെടുത്തുവാനാരംഭിച്ചു. ആദ്യകാലങ്ങളിൽ തിരച്ചിൽഫലങ്ങളിൽ ഉൾപ്പെടുത്തുന്നതിനായി താളുകളുടെ വെബ് അഡ്രസ്സ് അഥവാ യൂ.ആർ.എൽ. വെബ്മാസ്റ്റർമാർ സെർച്ച് എഞ്ചിനുകൾ സമർപ്പിക്കണമായിരുന്നു, തുടർന്ന് സെർച്ച് എഞ്ചിനുകൾ "സ്പൈഡർ" പ്രോഗ്രാമുകളുപയോഗിച്ച് താളുകളെ "ക്രൗൾ" ചെയ്യുന്നു, അവ മറ്റ് താളുകളിലേക്കുള്ള കണ്ണികൾ ശേഖരിക്കുകയും ഇൻഡക്സ് ചെയ്യപ്പെടേണ്ട വിവരങ്ങൾ സെർച്ച് എഞ്ചിനുകൾക്ക് നൽകുകയും ചെയ്യുന്നു.[3] സ്പൈഡർ ആദ്യമായി താൾ സെർച്ച് എഞ്ചിന്റെ സ്വന്തം സെർവറിലേക്ക് ഡൗൺലോഡ് ചെയ്യുന്നു, ശേഷം ഇൻഡക്സർ എന്നറിയ്യപ്പെടുന്ന മറ്റൊരു പ്രോഗ്രാം താളിൽ നിന്ന് വ്യത്യസ്ത വിവരങ്ങൾ ശേഖരിക്കുന്നു; താളിലെ വാക്കുകൾ, അവയുടെ താളിലെ സ്ഥാനം, നിശ്ചിത വാക്കുകളുടെ മുൻഗണന എന്നിവ ഇങ്ങനെ ശേഖരിക്കുന്നവയിൽപ്പെടുന്നു. കൂടാതെ ആ താളിൽ നിന്നും മറ്റ് താളുകളിലേക്കുള്ള കണ്ണികളും ശേഖരിക്കുന്നു, ഇങ്ങനെ ശേഖരിച്ച കണ്ണി ചൂണ്ടുന്ന താളുകൾ പിന്നീട് ക്രൗൾ ചെയ്യുന്നതിനായി മാറ്റി വയ്ക്കുന്നു. താമസിയാതെ സൈറ്റ് ഉടമകൾ തങ്ങളുടെ വെബ്സൈറ്റുകൾ സെർച്ച് എഞ്ചിൽ ഫലങ്ങളിൽ ഉയർന്ന റാങ്കോടെ പ്രത്യക്ഷപ്പെടേണ്ടതിന്റെ മൂല്യം തിരിച്ചറിയാൻ തുടങ്ങുകയും, അത് വൈറ്റ് ഹാറ്റ്, ബ്ലാക്ക് ഹാറ്റ് എസ്.ഇ.ഒ. നടപ്പിൽ വരുത്തുന്നവർ ഉയർന്നുവരുന്നതിലേക്കെത്തിക്കുകയും ചെയ്തു. മേഖലയിലെ വിദഗ്ദ്ധനായ ഡാന്നി സുള്ളിവന്റെ അഭിപ്രായത്തിൽ "സെർച്ച് എഞ്ചിൻ ഒപ്റ്റിമൈസേഷൻ" എന്നത് പ്രയോഗത്തിൽ വന്നത് 1997 ലാണ്.[4] ജോൺ ആഡെറ്റെയുടെ മൾട്ടിമീഡിയ മാർക്കെറ്റിങ്ങ് ഗ്രൂപ്പാണ് "Search Engine Optimization" എന്നത് ആദ്യമായി രേഖപ്പെടുത്തി ഉപയോഗിച്ചതെന്ന് 1997 ലെ എം.എം.ജി. സൈറ്റിലെ ഒരു വെബ്താളിൽ രേഖപ്പെടുത്തിയിട്ടുണ്ട്.[5] വെബ്മാസ്റ്റർമാർ നൽകുന്ന കീവേഡ് മെറ്റാ ടാഗുകൾ ഉപയോഗപ്പെടുത്തുക അല്ലെങ്കിൽ ALIWEB പോലെ ഇൻഡക്സ് ചെയ്യുക എന്നതായിരുന്നു ആദ്യകാല തിരച്ചിൽ അൽഗോരിതങ്ങൾ അവലംബിച്ചിരുന്ന രീതി. മെറ്റാ ടാഗുകൾ അതത് താളുകളിലെ ഉള്ളടക്കത്തെ കുറിച്ച് വിവരങ്ങൾ നൽകുവാനായിരുന്നു. എന്നാൽ മെറ്റാ ടാഗുകളിൽ വെബ്മാസ്റ്റർ നൽകുന്ന വിവർങ്ങൾ താളുകളിലെ യഥാർത്ഥ ഉള്ളടക്കത്തിൽ നിന്ന് വ്യത്യാസമാകാമെന്നതിനാൽ അതുപയോഗിച്ചുള്ള രീതിയിൽ വിശ്വാസത കുറഞ്ഞതാണെന്ന് മനസ്സിലായി. കൃത്യമല്ലാത്തതും, അപൂർണ്ണമായതും, അസ്ഥിരവുമായ മെറ്റാ ടാഗിലെ ഡാറ്റ തിരച്ചിൽ ഫലങ്ങളിൽ താളുകളെ അപ്രസക്താമായ തിരച്ചിൽ ഫലങ്ങളിൽ ഉൾപ്പെടാൻ കാരണമാകുന്നു.[6] തിരച്ചിൽഫലങ്ങളിൽ ഉയർന്ന സ്ഥാനത്തേക്ക് വരുന്നതിനു വേണ്ടി വെബ് ഉള്ളടക്ക നിർമ്മാതാക്കൾ എച്ച്.ടി.എം.എൽ. സോഴ്സിൽ കൗശലങ്ങൾ പ്രയോഗിക്കാറുമുണ്ട്.[7] കീവേർഡ് സാന്ദ്രത പോലെ പൂർണ്ണമായും വെബ്മാസ്റ്റർമാരുടെ അധീനതയിലുള്ള കാര്യങ്ങളെ ആശ്രയിച്ചിരുന്നതിനാൽ ആദ്യകാല സെർച്ച് എഞ്ചിനുകൾ വെബ്മാസ്റ്റർമാരുടെ ദുർവിനിയോഗങ്ങൽക്കും കൗശല പ്രയോഗങ്ങൾക്കും വിധേയമായിരുന്നു. ധർമ്മവിരുദ്ധരായ വെബ്മാസ്റ്റർമാർ നൽകുന്ന പരസ്പര ബന്ധമില്ലാത്ത താളുകളും അവയിലെ കീവേഡുകളും ഉപയോഗപ്പെടുത്തുന്നതിനു പകരം സെർച്ച എഞ്ചിനുകൾക്ക് തങ്ങളുടെ ഉപയോക്താക്കൾക്ക് കാര്യപ്രസ്ക്തമായ മെച്ചപ്പെട്ട ഫലങ്ങൾ നൽകുന്നതിനായി മാർഗ്ഗങ്ങൾ ആരായേണ്ടതായി വന്നു. സമർപ്പിക്കപ്പെട്ടിരിക്കുന്ന തിരച്ചിലിന് ഏറ്റവും അനുയോജ്യമായ ഫലങ്ങൾ നൽകുന്നത് സെർച്ച് എഞ്ചിനുകളുടെ വിജയത്തിനും പ്രചാരത്തിനും ആവശ്യമാണ്, അല്ലെങ്കിൽ ഉപയോക്താക്കൾ മറ്റ് സെർച്ച് എഞ്ചിനുകളിലേക്ക് തിരിയാനിടവരും. ഇത് വെബ്മാസ്റ്റർമാർക്ക് സ്വാധീനിക്കാൻ വിഷമമുള്ള ഘടകങ്ങൾ കണക്കിലെടുത്ത് പ്രവർത്തിക്കുന്ന സങ്കീർണ്ണമായ റാങ്കിങ്ങ് അൽഗോരിതങ്ങൾ വികസിപ്പിക്കുന്നതിലേക്ക് നയിച്ചു. വെബ്താളുകളുടെ പ്രാധാന്യം കണക്കാക്കുന്നതിനായി ഒരു ഗണിത അൽഗോരിതത്തെ പിൻപറ്റുന്ന "backrub" എന്ന സെർച്ച് എഞ്ചിൻ സ്റ്റാൻഡ്ഫോർഡ് സർവ്വകലാശാലയിലെ ബിരുദവിദ്യാർത്ഥികളായ ലാറി പേജും സെർജി ബ്രിനും ചേർന്ന് വികസിപ്പിക്കുകയുണ്ടായി. അൽഗോരിതം കണക്കാക്കുന്ന PageRank എന്ന സംഖ്യ താളിലേക്ക് ചൂണ്ടുന്ന ഇൻബൗണ്ട് കണ്ണികളുടെ ഗുണനിലവാരത്തിന്റേയും ഈടിന്റെയും ഒരു ഫലനമാണ്.[8] ക്രമരഹിതമായി വെബിൽ സർഫ് ചെയ്യുന്ന ഒരു ഉപയോക്താവ് കണ്ണികളിലൂടെയുള്ള സഞ്ചാരം വഴി ഒരു താളിൽ എത്തിപ്പെടാനുള്ള സാധ്യതയാണ് PageRank വഴി കണക്കാക്കുന്നത്. ഇത് ചില കണ്ണികൾ മറ്റുള്ളവയേക്കാൾ ശക്തമാണെന്ന് കാണിക്കുന്നു, ഉയർന്ന PageRank കുറഞ്ഞ താളുകളേക്കാൾ അത് കൂടുതലുള്ള താളുകളിലേക്ക് ഒരുപയോക്താവ് എത്താനുള്ള സാധ്യത കൂടുതാലാണ്. അവലംബം
|
Portal di Ensiklopedia Dunia