Aprendizaje profundo y el futuro del marketing en buscadores.

Mientras el mercado de SEO está discutiendo si habrá un retroceso de los algoritmos sin enlace en Yandex o no, hablemos de algo como el aprendizaje profundo (y luego no digas que no lo has escuchado).

¿Por qué necesitas saberlo? Porque el aprendizaje profundo es una revolución en el aprendizaje automático que se produce ante nuestros ojos. Y en un futuro próximo, el aprendizaje profundo cambiará más allá del reconocimiento, tanto la búsqueda en sí misma como la clasificación en presentación natural, y nuestro mundo en general (no mucho, no es suficiente).

Entonces, ¿qué es el aprendizaje profundo? En ruso, este término aún no está resuelto y lo traduce de diferentes maneras. Prefiero la traducción de "aprendizaje profundo" (en lugar de "profundo"), que fue sugerida por Dmitry Vetrov, uno de los especialistas rusos, como el principal.

El "aprendizaje profundo" es un tipo de aprendizaje automático basado en redes neuronales. Hoy en día, el uso del "aprendizaje profundo" se basa en los sistemas de reconocimiento de voz, el reconocimiento de objetos visuales (estáticos y en movimiento) y, finalmente, la interacción de los sistemas informáticos con el lenguaje natural y el aislamiento de los significados.

Parece que todo es simple, todo está claro y, al parecer, no nos concierne. Pero ... Pero de hecho, estamos hablando de una verdadera revolución en el aprendizaje automático. No comenzó ayer, los principios generales del "aprendizaje profundo" han existido durante mucho tiempo. Pero la encarnación real del aprendizaje profundo se hizo posible a principios de esta década, cuando la creación de redes neuronales informáticas era significativamente más barata. Y a partir de aproximadamente 2012, se produjo un verdadero auge relacionado con las tecnologías de "aprendizaje profundo" en el aprendizaje automático. Sin embargo, todavía hay muy pocos especialistas en "aprendizaje profundo" en el mundo, y su necesidad es muy alta. Por ejemplo, el algoritmo para reconocer el significado en los textos fue creado por prácticamente una persona, Thomas Mikolov. En ese momento, él estaba trabajando en Google, pero casi inmediatamente después de eso, fue "conectado" por Facebook.

Anteriormente, ya dije que el "aprendizaje profundo" es un tipo de aprendizaje automático. Pero esto no es del todo cierto, de hecho. El aprendizaje automático clásico es la extracción de nuevos conocimientos de una gran cantidad de datos que una persona carga en una máquina. Una persona formula las reglas del aprendizaje automático (debido al llamado "conjunto de entrenamiento") y la regla de errores de la máquina (elimina el efecto del llamado "reentrenamiento"). Pero el aprendizaje automático clásico tiene inconvenientes importantes: los datos para el procesamiento y los seres humanos dan a la máquina ejemplos de soluciones. En otras palabras, en el aprendizaje automático clásico, una computadora realiza una gran cantidad de tareas, pero no forma estas tareas de forma independiente. El concepto de "aprendizaje profundo" sugiere que la propia máquina crea una función por sí misma, en la medida de lo posible en el momento actual.

El concepto de "profundidad" aplicado al aprendizaje automático implica el modelado de abstracciones de múltiples niveles ("capas") y su traducción en datos. Cuantas más de estas "capas" ("profundidades"), más tareas intelectuales puede realizar la red neuronal. Al mismo tiempo, ella los realiza sin la ayuda de una persona.

De hecho, el "aprendizaje profundo" es el primer paso y bastante grande hacia la inteligencia artificial. Las redes neuronales son sistemas que, aun siendo primitivos, pueden pensar, es decir, Crear nuevos descubrimientos a partir de los datos que ellos mismos crearon. El mecanismo de abstracciones de varios niveles ("capas"), utilizado en la capacitación profunda, es muy similar al mecanismo de aprendizaje de un joven humano. Cuando un niño aprende los sonidos, luego las palabras individuales, y luego las oraciones, la red neuronal "profunda" se mueve desde abstracciones simples (superficiales) a otras más complejas.

Revolución de aprendizaje profundo

A lo largo de 2012 y 2013, Google está comprando de manera silenciosa pero metódica empresas activas y empresas emergentes en el campo del aprendizaje profundo. Entre ellas se encontraban empresas bastante grandes (por ejemplo, el costo del British DeepMind, según los expertos en el momento de la compra por parte del gigante de las búsquedas, oscilaba entre 400 y 500 millones de dólares) y muy enano, por ejemplo, DNNresearch, en el que Google trabajaba en el momento de la compra de la empresa. Sólo tres empleados: Jeffrey Hinton y sus dos estudiantes graduados.

Hinton, un profesor de la Universidad de Toronto, comenzó su investigación en el campo de la construcción de redes neuronales en los años 80 del siglo pasado y, de hecho, es hoy en día el especialista con mayor autoridad del mundo en aprendizaje profundo. Es en el trabajo científico de Hinton que se basaron muchos sistemas basados ​​en el "aprendizaje profundo". En 2011, Google crea su primera red neuronal, llamada Google Brain (ya se está desarrollando como una división de culto de Google X), e Hinton inicialmente participa en el desarrollo de la red neuronal como consultor contratado, y dos años más tarde se une al equipo con sus estudiantes graduados. Google Brain (sin dejar tu docencia en la Universidad de Toronto).

La red neuronal Google Brain (en 2012, consistía de 16 mil procesadores) comienza a aprender. En el camino, resolviendo problemas aplicados, por ejemplo, precisamente debido a la red neuronal, el número de errores de reconocimiento de comandos de voz en la búsqueda ha disminuido en un 25%, descubre una criatura como un gato.

Con solo estudiar las millones de imágenes en el canal de Youtube, la red neuronal artificial abrió el gato. De hecho, la solución de tal problema es una cosa extremadamente complicada, porque es difícil de formalizar. Puede crear un algoritmo que reconozca a los gatos en ciertos tipos de fotos (con un ángulo similar, con tamaños de objetos similares). Puedes crear un algoritmo que dibujará estos gatos. Pero, ¿cómo crear un algoritmo que reconozca a los gatos desde cualquier ángulo, si él, el algoritmo, no entiende qué es un gato?

La red neuronal debería haber comenzado a entender esto. Y ella aprendió esto. Ella se entrenó a sí misma, la persona no le asignó esa tarea.

Está claro que por el momento todo no es tan atractivo. La red neuronal distingue a los gatos en imágenes solo en el 15% de los casos. La precisión puede ser mucho mayor si la red estudiará el mismo tipo de materiales. Es decir, de hecho, la precisión del reconocimiento de los gatos por la red neuronal es actualmente mucho peor que el reconocimiento de los gatos por 4-5 niños voladores. Pero, a diferencia del niño, nadie enseñó la red neuronal, nadie mostró objetos con un gato, llamándolos. La red dio origen al concepto del gato en sí.

Que pasa despues

En marzo de 2015, una "bomba nuclear" explotó en el mundo SEO. Google publicó un artículo titulado "Confianza basada en el conocimiento: Evaluación de la confiabilidad de los recursos web". Sin lugar a dudas, exagero, las noticias, de hecho, pasaron desapercibidas. Bueno, durante un par de días, los gerentes sociales se sintieron avergonzados y escépticos. Me disculpo por esta palabra estúpida, pero no sé cómo identificar el bullicio en los foros sociales y los grupos de redes sociales. No había límite para la indignación ("Google nos pone a los experimentos de nuevo") y el escepticismo ("Nada saldrá de ello, como Yasha con la cancelación de una referencia"). Es comprensible, en un artículo puramente científico, los representantes de Google anunciaron un nuevo algoritmo de clasificación, basado no en la autoridad referencial del documento, sino en la exactitud de los hechos. Si se simplifica, entonces la esencia del nuevo algoritmo puede expresarse mediante la siguiente máxima: un documento con factología confiable, en igualdad de condiciones, debe ser clasificado más alto que un documento con factología inexacta.

El escepticismo de los SEO es comprensible en general: ellos (como siempre, por cierto) solo vieron lo que querían ver. Y la pregunta principal que se hizo en los foros sonaba así: "Esto es lo que demonios quieren hacer, resulta que ahora tenemos que crear contenido que cite datos de Wikipedia u otras fuentes autorizadas, incluso si no son relevantes en absoluto en la página. ? ".

Pero el hecho es que el nuevo algoritmo no puede funcionar sin comprender el significado que se dice en la página. Comprender los significados del texto escrito / expresado en una página, en lugar de reconocer la semántica, es lo que hará que la búsqueda sea irreconocible.

¿Cómo funcionará el "aprendizaje profundo" en la búsqueda? Me refiero a la experiencia de las personas que entienden esto mucho mejor que yo. Esto es lo que dice Rand Fishkin en la próxima edición de Whiteboard Friday (por cierto, este problema se llama "¿Qué significa el aprendizaje en profundidad y el aprendizaje automático para el futuro SEO?"):

"La red neuronal consta de diferentes capas. La primera capa revelará todas las características del documento. La otra capa de la red neuronal clasificará los tipos de estas características. Así, Google tendrá en cuenta todas las características posibles de cualquier tipo de sitio y cualquier tipo de página para decidir qué señales útiles En general, se puede extraer aquí y ahora. En este caso, la red neuronal tendrá en cuenta los datos acumulados sobre el comportamiento de los usuarios en todas las páginas de Internet (a las que puede llegar) para predecir. resultados: si al usuario le va a gustar este o ese documento en el problema o no.

Pero la idea básica es que en el futuro, los datos entrantes no serán controlados por humanos. La máquina en sí tratará de entender el contenido de la página. Sí, suena raro. Pero pronto, si le pregunta a un ingeniero de Google, por ejemplo, ¿vale la pena continuar construyendo enlaces entrantes al sitio? - Es muy probable que te responda: no lo sé. De hecho, ya no sabrán exactamente qué señala el resaltado del algoritmo de búsqueda para una consulta en particular y un tipo particular de página. Solo la máquina sabrá esto, pero no podrá explicar nada a nadie, porque el algoritmo de clasificación cambiará constantemente a medida que aparezcan nuevos documentos sobre este tema, y ​​muchas de las métricas que la red neuronal utilizará se derivarán de una gran cantidad de otras métricas ".

"Aprendizaje profundo" viene

La revolución del aprendizaje profundo, de hecho, apenas está comenzando. Pero hoy en día las redes neuronales con el uso de la función de "aprendizaje profundo".

Por ejemplo, los servicios de monitoreo de atascos operan en tecnologías de aprendizaje profundo. Sí, Yandex.Proborks no solo muestra la imagen real, sino que también intenta predecir la aparición de atascos de tráfico, pero sin un aprendizaje profundo, dicha predicción es imposible.

Google Voice Search y Apple Siri funcionan con tecnologías de "aprendizaje profundo".

El servicio de predicción de la gripe de Google funciona con técnicas de aprendizaje profundo.

Los algoritmos de reconocimiento para personas en imágenes de fotos y videos que se cargan diariamente en Facebook se basan en tecnologías de aprendizaje profundo.

Para buscar Los algoritmos para personalizar los resultados de búsqueda se basan en tecnologías de aprendizaje profundo.

Estamos entrando en un nuevo mundo maravilloso. Y los próximos cinco años serán verdaderamente revolucionarios, no solo para el marketing en buscadores, sino también para la humanidad en general. Muy pronto lo veremos todo con nuestros propios ojos.

Mira el video: La FORMACIÓN DIARIA es necesaria en #EMPRENDEDORES IG Live (Febrero 2020).

Loading...

Deja Tu Comentario