Читать книгу Python a fondo - Óscar Ramírez Jiménez - Страница 22

1.3.7 Inteligencia artificial y Python

Оглавление

La inteligencia artificial ha sido un tema de interés muy popular desde que se empezó a investigar a finales de los años 30 hasta que se consiguió crear la primera red neuronal artificial en 1951, la famosa SNARC (Stochastic Neural Analog Reinforcement Calculator). Desde entonces, este campo de la ingeniería informática ha evolucionado de forma trepidante, aunque se relajó un poco cuando paró la financiación para este tipo de proyectos entre los años 80 y el 2011. Hoy día es una parte fundamental en el desarrollo de aplicaciones y está totalmente de moda gracias a las tres partes fundamentales en las que se desarrolla en la actualidad: big data, inteligencia artificial general y deep learning.

El término big data hace referencia a la manipulación de grandes cantidades de datos. En Python se realiza haciendo uso de las herramientas comentadas en el apartado 3.6, cuando se habla del manejo de datos utilizando herramientas que permitan la obtención de los mismos y el guardado eficiente, como Apache Spark (https://spark.apache.org/) y Hadoop (https://hadoop.apache.org/), o Dask (https://dask.org/), que permite la ejecución paralela del mismo código en diferentes máquinas y, en caso de ser necesario, escalar las mismas, lo que ayuda a agilizar la ejecución de los cálculos científicos.

La rama de las ciencias de la computación especializada en inteligencia artificial general intenta entender la inteligencia humana y desarrollar algoritmos para que las computadoras puedan tener comportamientos similares a los humanos. En este aspecto, los ejemplos más clásicos podrían ser: la categorización de imágenes, el reconocimiento de patrones de habla, el procesamiento de lenguaje natural y la robótica, entre otros. En Python existe una gran variedad de herramientas que ayudan a desarrollar aplicaciones en cada aspecto, pero cabe destacar la librería Scikit-learn (https://scikit-learn.org/), la cual permite hacer clasificación de objetos en categorías, predicciones basadas en eventos pasados, reprocesamiento de datos y otras muchas herramientas muy útiles en este campo.

El aprendizaje profundo (o deep learning) se centra en el desarrollo de algoritmos de aprendizaje automático para analizar datos expresados de forma matricial o tensorial mediante capas de redes neuronales. Son especialmente útiles porque no necesitan, en la mayoría de los casos, la intervención humana para su aprendizaje. El software más destacado en este campo es TensorFlow (https://www.tensorflow.org/), que es una librería desarrollada por Google como parte de sus herramientas principales y abierta como código abierto para el público general. Aunque TensorFlow es la herramienta principalmente utilizada, existen otras como CNTK (https://docs.microsoft.com/es-es/cognitive-toolkit/), de Microsoft, o Theano (https://pypi.org/project/Theano/). Estos tres frameworks pueden ser utilizados fácilmente por la librería de Python Keras (https://keras.io/), la cual permite la integración y utilización de cualquiera de las tres herramientas de forma fácil.

Python a fondo

Подняться наверх