Google ще проучи алтернативи на robots.txt в резултат на AI
Google каза, че ще се ангажира с уеб и AI общности с публични дискусии по време на този процес.
Google проучва алтернативи или допълнителни начини за контролиране на обхождането и индексирането извън 30-годишния стандарт на протокола robots.txt.
„Ние вярваме, че е време общностите в мрежата и изкуствения интелект да проучат допълнителни машинночетими средства за избор и контрол на уеб издатели за възникващи случаи на използване на изкуствен интелект и изследвания“, пише Google .
Също така, че ще има ангажиране с общността. Google каза, че кани членове от уеб и AI общности да обсъдят нов протокол. Google каза, че „започва обществена дискусия“ с „широк спектър от гласове от различни уеб издатели, гражданско общество, академични среди и други области от целия свят.
Време. Google каза, че тези дискусии се провеждат, за да се присъединят към дискусията, и ние ще съберем желаещите да участват през „следващите месеци“. Така че нищо не се случва твърде рано и нищо не се променя утре.
Проблем с платено съдържание. Наскоро Open AI деактивира функцията за сърфиране с Bing в ChatGPT, след като успя да получи достъп до платено съдържание без разрешение на издателя. Това е една от многото причини, поради които може би Google търси алтернативи на протокола robots.txt.
Защо ни е грижа. Всички сме обвинени, че позволяваме достъп на ботове до нашите уебсайтове, като използваме robots.txt и други форми на по-нови структурирани данни. Но може да търсим нови методи в бъдеще. В момента не е известно как могат да изглеждат тези методи и протоколи, но дискусията се провежда.
Ако това ви е било полезно, разгледайте новините за GA4 тук.
Колко полезна Ви беше тази информация?
Кликнете върху звезда, за да оцените!
Среден рейтинг 0 / 5. Брой гласове: 0
Няма гласове досега! Бъдете първият, който оцени тази информация.
Съжаляваме, че тази информация не беше полезна за вас!
Нека подобрим тази информация!
Кажете ни как можем да подобрим тази информация?