Otimização para Ciência de Dados

Informações Básicas

Carga horária: 

60 horas

Pré-requisito: 

Álgebra Linear, Teoria da Probabilidade e Cálculo em várias variáveis

Ementa: 

Conjuntos convexos; Funções convexas; Problema de otimização; Método do gradiente descendente; Método do subgradiente; Método de Newton; Programação linear e quadrática; Dualidade; Condições de otimalidade de Karush-Kuhn-Tucker. Métodos do ponto interior; Coordinate descent; Gradiente conjugado; Região de confiança; Gradiente descendente estocástico. Aplicações em problemas de estatística e aprendizado de máquinas.

Bibliografia

Obrigatória: 

  • Boyd, Stephen, and Lieven Vanderberghe. Convex Optimization. Cambridge, UK: Cambridge University Press, 2004.
  • Izmailov, Alexey, and Mikhail Solodov. Otimização, Volume 1: Condições de Otimalidade, Elementos de Análise Convexa e de Dualidade. IMPA. 2009.
  • Izmailov, A., and M. SOLODOV. Otimização Volume 2: Condições de Otimalidade, Métodos Computacionais. 2014.

Complementar: 

  • Kecman, Vojislav. Learning and soft computing: support vector machines, neural networks, and fuzzy logic models. MIT press, 2001.
  • Hastie, T., R. Tibshirani, and J. Friedman. "The elements of statistical learning" Springer. 2009.
  • J. Nocedal and S. J. Wright, Numerical Optimization, 2nd Ed, Springer, 2006.
  • P. Pedregal, Introduction to Optimization, Springer, 2004.
  • Bubeck, Sébastien. "Convex optimization: Algorithms and complexity." Foundations and Trends® in Machine Learning 8.3-4 (2015): 231-357.