Intelegerea cautarilor este mai buna ca oricand

Intelegerea cautarilor este mai buna ca oricand
by

Noul update de la Google, BERT, explicat de Pandu Nayak/Google Fellow and Vice President.

“Daca exista un lucru pe care l-am invatat de-a lungul celor 15 ani de lucru la Cautarea Google, este ca curiozitatea oamenilor este interminabila. Vedem miliarde de cautari in fiecare zi, iar 15 la suta dintre aceste interogari sunt cele pe care nu le-am mai vazut pana acum, asa ca am construit modalitati de a returna rezultatele pentru intrebarile pe care nu le putem anticipa.

Cand oamenii ca tine sau cu mine efectueaza o cautare, nu suntem intotdeauna prea siguri cu privire la cea mai buna modalitate de a formula o interogare. Este posibil sa nu cunoastem cuvintele potrivite pentru a utiliza sau cum sa scrieti ceva, deoarece de multe ori, cautam ceva pentru a invatam  si nu avem neaparat cunostintele pentru a incepe.

Puteti consulta si optimizare SEO Bucuresti si promovare magazin online.

La baza sa cautarea este despre intelegerea limbajului. Este sarcina noastra sa descoperim ce cautati si sa extrageti informatii utile de pe web, indiferent de modul in care scrieti sau combinati cuvintele din interogare. Desi am continuat sa ne imbunatatim capacitatile de intelegere a limbilor stramosesti de-a lungul anilor, uneori inca nu ne intelegem, in special cu intrebari complexe sau conversationale. De fapt, acesta este unul dintre motivele pentru care oamenii folosesc adesea „eseuri de cuvinte cheie”, tastand siruri de cuvinte pe care ei cred ca le vom intelege, dar nu sunt de fapt modul in care isi pun in mod natural o intrebare.

Cu cele mai recente progrese ale echipei noastre de cercetare in domeniul stiintei intelegerii limbajului – posibil prin invatarea automata – facem o imbunatatire semnificativa a modului in care intelegem intrebarile, reprezentand cel mai mare salt inainte in ultimii cinci ani si unul dintre cele mai mari salturi inainte din instoria cautarilor.

Aplicarea modelelor BERT la Cautare:
Anul trecut, am introdus si deschis o retea neurala tehnica bazata pe retea neuronala pentru prelucrarea limbajului natural (NLP) pre-instruire numita Reprezentare a codificatorului bidirectional de la Transformers, sau cum o numim – BERT, pe scurt. Aceasta tehnologie permite oricui sa-si antreneze propriul sistem de raspuns la intrebari de ultima generatie.

Aceasta descoperire a fost rezultatul cercetarii Google asupra transformatoarelor: modele care prelucreaza cuvinte in raport cu toate celelalte cuvinte dintr-o propozitie, mai degraba decat in ​​ordine una cate una. Prin urmare, modelele BERT pot lua in considerare contextul complet al unui cuvant, uitandu-va la cuvintele care vin inainte si dupa acesta – utile in special pentru intelegerea intentiei din spatele interogarilor de cautare.

Puteti accesa si creare  site de prezentare sau realizarea magazin online.

Dar nu sunt doar progrese in software care pot face acest lucru: aveam nevoie si de hardware nou. Unele dintre modelele pe care le putem construi cu BERT sunt atat de complexe incat imping limitele a ceea ce putem face folosind hardware-ul traditional, asa ca pentru prima data folosim cele mai recente TPU Cloud pentru a servi rezultatele cautarii si pentru a va obtine rapid mai multa informatie relevanta. .

Cracarea intrebarilor
Deci sunt multe detalii tehnice, dar ce inseamna totul pentru tine? Ei bine, aplicand modele BERT atat la fragmentele de clasament, cat si la cele incluse in Search, vom putea face o treaba mult mai buna ajutandu-va sa gasiti informatii utile. De fapt, atunci cand vine vorba de rezultate de clasare, BERT va ajuta Search-ul sa inteleaga mai bine una din 10 cautari din Statele Unite ale Americii in limba engleza si vom aduce acest lucru in mai multe limbi si localitati in timp.

In special pentru interogari conversationale mai lungi, sau cautari in care prepozitiile de genul „pentru”  conteaza foarte mult in contextul  semnificatiei, Cautarea va putea intelege contextul cuvintelor din interogarea dvs. Puteti cauta intr-un mod care va pare natural.

Pentru a lansa aceste imbunatatiri, am facut o multime de testari pentru a ne asigura ca schimbarile sunt de fapt mai utile. Iata cateva dintre exemple care au aratat procesul nostru de evaluare care demonstreaza capacitatea BERT de a intelege intentia din spatele cautarii dvs.

Iata cautarea „Calator din Brazilia in SUA din 2019 are nevoie de viza”. Cuvantul „la” si relatia acestuia cu celelalte cuvinte din interogare sunt deosebit de importante pentru intelegerea sensului. Este vorba despre un brazilian care calatoreste in Statele Unite, si nu invers. Anterior, algoritmii nostri nu intelegeau importanta acestei conexiuni si am returnat rezultate despre cetatenii americani care calatoresc in Brazilia. Cu BERT, Search-ul este capabil sa inteleaga aceasta nuanta si sa stie “.

Tot articolul poate fi citit aici.


Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *