s
19 708 Pages

Remarque disambigua.svg homonymie - « approximation numérique » se réfère ici. Si vous êtes à la recherche d'autres utilisations, voir approximation.

« Les mathématiques enseignées pour calculer la valeur numérique des inconnues qui se posent des problèmes pratiques. Tel est le but ultime de toutes les théories, analytiques, géométriques et mécaniques. Ceux-ci, dans nos écoles, doivent être couronnées par le calcul numérique, poser des ondes lumineuses au sens et à l'application. »

(Giuseppe Peano, Préface du volume tableaux numériques)

L 'analyse numérique (Aussi appelé calcul numérique ou calcul scientifique) Est une branche de mathématiques appliquées qui permet de résoudre les modèles produits par 'analyse mathématique Finite décompositions normalement praticables, impliquant le concept de approximation. Ses ces instruments algorithmes Ils peuvent être caractérisés sur la base de taux de convergence, stabilité numérique et calculabilité.

description

La plupart de la solution des méthodes d'analyse numérique fournies sont basées sur 'algèbre linéaire ou la construction de séquences convergentes numéros ou fonctions. Ils ne sont pas, cependant, être des contributions négligés de combinatoires et géométrie, ainsi que des liens avec des méthodes probabilistes et physico-mathématique.

Certains des problèmes de mathématiques continues peuvent être résolus avec des algorithmes qui permettent de résoudre le problème dans un nombre fini (et peut-être inconnu a priori) des étapes; ces méthodes sont appelées méthodes directes. Un exemple typique est donné par Procédé d'élimination de Gauss pour résoudre systèmes d'équations linéaires. Cependant, pour la plupart des problèmes numériques, il n'y a pas de méthodes directes. Dans de tels cas, il est souvent possible d'utiliser un méthode itérative. Une telle méthode commence par une tentative, et trouve des approximations successives qui, espérons-le, converger la solution.

En règle générale, vous écrivez le problème de la forme x = F (x) et applique les théorème du point fixe. Un exemple classique est l'algorithme itératif La méthode de Newton pour calculer les zéros d'une fonction. Même quand il y a une méthode directe, il est parfois préférable à une méthode itérative, car il est plus efficace ou plus stable, par exemple lors de la résolution des systèmes d'équations linéaires avec des milliers d'inconnues.

applications

L'impact sur le monde réel est décisive et la croyance commune réfute que les mathématiques auraient aucune utilité pratique. Un exemple: l'algorithme FFT (Fast Fourier Transform), qui est l'un des succès d'analyse numérique, est la base d'algorithmes de reconstruction des images de tomodensitométrie et IRM, comme la résolution de problèmes de multimédia (compression JPEG compression de l'image MP3 Musique, compression mpeg films, échantillonnage et le filtrage des signaux, pour ne citer que les plus importants).

Mais les algorithmes d'analyse numérique sont appliqués systématiquement à résoudre de nombreux problèmes scientifiques et techniques. Des exemples sont la conception de structures telles que des ponts et des avions, temps, l'analyse de molécules (chimie computationnelle). Les algorithmes d'analyse numérique sont aussi la base des programmes CAE, et presque tous super-ordinateur Ils sont constamment engagés pour effectuer des algorithmes d'analyse numérique.

L'efficacité des algorithmes et leur mise en œuvre est très important. Par conséquent, une méthode heuristique efficaces, mais peut être préférable à une méthode avec une base théorique solide, mais inefficaces, et langages de programmation vieillottes mais efficace Fortran et C Ils sont les plus utilisés.

En général, l'analyse numérique est une science à la fois théorique et expérimentale. Dans les utilisations de fait axiomes, théorèmes et démonstrations, comme le reste des mathématiques, mais utilise aussi les résultats empirique du traitement effectué pour étudier les meilleures méthodes pour résoudre les problèmes.

histoire

Le domaine de l'analyse numérique remonte à plusieurs siècles avant l'invention de ordinateurs électroniques. En fait, de nombreux grands mathématiciens du passé ont été consacrés à l'analyse numérique, comme on le voit à partir des noms des algorithmes importants en raison de Isaac Newton, Joseph-Louis Lagrange, Philipp Ludwig von Seidel, Carl Jacobi, Carl Friedrich Gauss, ou Euler.

Pour faciliter les calculs à la main, ils ont été imprimés dans de grands livres pleins de formules et tableaux de données telles que les points d'interpolation et les coefficients de fonctions. L'utilisation de ces tables, vous pouvez trouver les valeurs à insérer dans les formules données et obtenir de très bonnes estimations numériques de certaines fonctions. Le travail canonique dans le domaine est la publication de NIST édité par Abramowitz et Stegun, un livre de plus de 1000 pages contenant un grand nombre de formules et fonctions couramment utilisées et leurs valeurs à de nombreux points. Les valeurs de fonction qui ne sont plus très utile lorsque vous pouvez utiliser un ordinateur, mais la grande liste des formules peuvent encore être très confortable.

la calculatrice mécanique Il a également été conçu comme un outil de calcul manuel. Ces calculateurs ont évolué dans les ordinateurs électroniques 1940; l'invention de l'ordinateur également influencé le domaine de l'analyse numérique, ce qui permet l'exécution de calculs progressivement de plus en plus complexes.

Domaines d'étude

Le domaine de l'analyse numérique est divisé en différentes disciplines en fonction du problème à résoudre.

Le calcul des valeurs des fonctions

est l'évaluation d'une fonction Un des problèmes les plus simples à un moment donné. Mais même l'évaluation d'un polynôme est pas immédiat: l 'L'algorithme de Horner il est souvent plus efficace que la méthode ordinaire. En général, l'attention principale dans la résolution de ces problèmes vise à estimer et à maintenir sous contrôle les erreurs d'arrondi en raison de l'arithmétique virgule flottante. Cela se fait en prêtant attention à l'ordre dans lequel elles sont réalisées des opérations arithmétiques, en essayant de minimiser le nombre de même et d'essayer d'éviter, si possible, les « dangereux », à savoir celles qui conduisent à une perte de chiffres significatifs (voir par exemple le phénomène de annulation numérique).

L'interpolation, extrapolation et régression

les méthodes interpolation et extrapolation estimer la valeur d'une fonction inconnue compte tenu de la valeur de la fonction elle-même dans certains points. La méthode d'interpolation la plus simple est la "interpolation linéaire, ce qui suppose que la fonction inconnue est linéaire entre chaque paire de points consécutifs. Cette méthode peut être généralisée à partir de 'interpolation polynomiale, qui il est parfois plus précis, mais souffre phénomène Runge. D'autres méthodes d'interpolation utilisent des fonctions régulières parfois que spline ou ondelette. L'extrapolation, interpolation à la différence, la fonction d'estimation des points externes aux points pour lesquels on connaît la fonction.

la régression Il est semblable aux problèmes ci-dessus, mais tient compte du fait que les valeurs de données sont inexactes. La technique préférée pour la régression est la méthode de moindres carrés.

Les équations et systèmes de solution d'équations

Un autre problème fondamental consiste à calculer la solution d'une équation ou un système d'équations. La principale distinction entre les équations (ou linéaire et entre les équations (ou) des systèmes d'équations d'équations non linéaires) des systèmes. problèmes linéaires sont plus faciles à résoudre.

Les méthodes de résolution de systèmes d'équations linéaires peuvent être divisés en deux catégories.

La première catégorie est celle des méthodes directes. Cette catégorie comprend par exemple Procédé d'élimination de Gauss et LU factorisation. Les méthodes directes construire la solution exacte, à moins d'erreurs d'arrondi, dans un nombre fini d'étapes. En substance, en utilisant l'idée de la factorisation de la matrice des coefficients du système dans le produit de deux matrices plus simples (habituellement triangulaire ou orthogonal).[1] Ils sont généralement les méthodes les plus efficaces, en particulier lors de l'utilisation sur matrices denses de coefficients, mais sur les grands systèmes et / ou matrices creuses de coefficients Ils ont tendance à être trop coûteux en termes de consommation de mémoire. Dans ces situations, il est généralement préférable dans les méthodes de la deuxième catégorie.

La deuxième catégorie est celle des méthodes itératives. Ils appartiennent à des méthodes itératives par exemple, Procédé de Jacobi, la Gauss-Seidel et méthode de gradient conjugué. Les méthodes itératives conduisent à la solution du système dans un nombre théoriquement infini d'étapes: à partir d'une approximation initiale de la solution, de fournir un série des approximations qui, sous des hypothèses convenables, convergent vers la solution exacte. Le processus itératif est arrêté dès que la précision désirée est atteinte. La méthode appliquée sera efficace si la précision souhaitée est atteinte dans un nombre acceptable d'itérations.[2]

Lorsque vous place face à des équations non linéaires, manque, algorithmes pour trouver des racines. Si la fonction est dérivable et son dérivé est connue, alors la La méthode de Newton Il est un choix populaire. la linéarisation est une autre technique pour résoudre des équations non linéaires.

L 'optimisation

Les problèmes d'optimisation ont besoin pour trouver le point où une fonction donnée prend la valeur maximale (ou minimum). Souvent, le point doit également répondre à certaines contraintes.

Le domaine de l'optimisation est divisée en plusieurs sous-zones, en fonction de la forme de la fonction objective et les contraintes. Par exemple, la programmation linéaire traite le cas où à la fois la fonction objective que les contraintes sont linéaires. L'algorithme de programmation linéaire est le plus célèbre la méthode du simplexe.

Procédé selon la multiplicateurs de Lagrange Il peut être utilisé pour réduire les problèmes d'optimisation dans les problèmes de contraintes d'optimisation contraintes.

Les algorithmes d'optimisation sont généralement testés en utilisant appropriée fonctions de test, pensez à les tester dans des problèmes qui ont des difficultés de calcul particulières.

L'évaluation des Intégrales

icône Loupe mgx2.svg Le même sujet en détail: intégration numérique.

L'intégration numérique, aussi connu comme quadrature numérique, estimer la valeur d'une intégral défini. Les méthodes couramment utilisées utilisent une formule de Newton-Cotes, par exemple, la règle du point milieu ou la règle trapézoïdale, ou quadrature gaussienne. Cependant, si la taille du domaine d'intégration devient grande, ces méthodes deviennent un coût prohibitif. Dans ce cas, vous pouvez utiliser un méthode de Monte Carlo, une méthode quasi-Monte Carlo, ou modérément grande, la méthode des réseaux rares.

la équations différentielles

L'analyse numérique concerne également une solution de calcul (approximatif) de la équations différentielles, à la fois ordinaire dérivées partielles. Les équations différentielles sont résolues par discrétiser l'équation premier, qui est, l'amenant en un sous-espace de dimension finie. Cela peut être fait avec méthode des éléments finis, un méthode des différences finies, ou (en particulier dans le génie) un méthode des volumes finis. La justification théorique de ces méthodes implique souvent de théorèmes 'analyse fonctionnelle. Cela réduit le problème à la solution d'une équation algébrique.

Certaines questions abordées par le numérique

Les problèmes rencontrés par le numérique comprennent:

Quand ils sont différentes solutions possibles aux problèmes numériques, ils pèsent trois facteurs pour décider méthode à suivre:

  • stabilité - l'erreur dans l'approximation ne doit pas se développer de façon incontrôlable lorsque la taille des calculs augmente
  • précision - l'approximation numérique doit être aussi précise que possible
  • efficacité - plus vite le calcul, est la meilleure méthode. Vous devez cependant trouver un compromis entre la précision et l'efficacité

La génération et la propagation d'erreurs

L'étude des erreurs constitue une partie importante de l'analyse numérique. Il y a plus de façons dont vous pouvez introduire des erreurs dans la solution d'un problème:

  • erreur arrondi: Il est quand vous il est un nombre réel avec un nombre fini de chiffres. Par exemple, quand il représente un nombre réel avec un numéro de la machine dans un ordinateur (par exemple. annulation numérique).
  • erreur algorithmique: se produit lorsque vous l'utilisez pour résoudre le problème sur l'arithmétique (par exemple l'ordinateur).
  • erreur d'analyse ou discrétisation: Il fait quand il se rapproche d'un problème en cours avec un problème discret.

Une erreur, une fois qu'il a été généré, généralement se propager à travers le calcul. Cela conduit au concept de stabilité numérique: Un algorithme est dit numériquement stable si une erreur, une fois qu'il a été généré, ne pousse pas trop pendant le calcul. Pour certains problèmes n'existent pas des algorithmes stables, comme des changements arbitrairement petits dans les données du problème, la solution, cependant, varie considérablement. Ces problèmes sont appelés mal conditionnés. Un problème est mal conditionné bien conditionné dit.

Cependant, un algorithme qui permet de résoudre un problème bien conditionné peut être numériquement stable ou non. L'objectif primaire de l'analyse numérique est de trouver des algorithmes stables pour résoudre des problèmes bien conditionnés.

Depuis arriver à rencontrer des problèmes mal conditionnés, un autre objectif de l'analyse numérique est de trouver, pour chaque problème mal conditionné, un problème bien conditionné dont la solution se rapproche de celle du problème initial.

le logiciel

Lorsque des algorithmes d'analyse numérique sont traduits dans un langage de programmation et être adaptée aux caractéristiques de l'environnement de calcul (par exemple, mis en œuvre et exécuté sur un ordinateur), on parle de logiciels numériques. Il y a au moins trois catégories de logiciels numériques:

  • Bibliothèques pour les programmeurs (Netlib, GISL, NAG, GNU Scientific Library, BLAS, LAPACK, FFTW).
  • environnements interactifs pour résoudre des problèmes de mathématiques et sciences informatiques (Mathematica, Matlab, érable, Scilab, GNU Octave, IDL) dit Résolution de problèmes environnements (PSE).
  • Applications pour résoudre les zones de problèmes d'application spécifiques, tels que l'ingénierie (logiciels CAE).

notes

  1. ^ Valeriano Comincioli, Méthodes numériques et statistiques Sciences Appliquées, C.E.A. Casa Editrice Ambrosiana, 1992, ISBN 88-408-0757-8
  2. ^ Giovanni Monegato, Éléments d'analyse numérique, Ed. Levrotto Bella, Torino 1995 ISBN 978-88-8218-017-1, pp. III-2, III-3

bibliographie

Travaux d'introduction

  • R. Bevilacqua, D. Bini, M. Capovani, O. Menchi (1987): Introduction à mathématiques computationnelles, Zanichelli, ISBN 88-08-04356-8
  • Samuel D. Conte, Carl de Boor (1981): analyse numérique élémentaire. Une approche algoritmic, 3e éd., McGraw-Hill, ISBN 0-07-012447-7
  • Valeriano Comincioli (1990): Analyse numérique. Méthodes, modèles, applications. McGraw-Hill, ISBN 88-386-0646-3; nouvelle édition e-book APOGEO, Feltrinelli Milan, 2005 http://www.apogeonline.com/libri/88-503-1031-5/scheda
  • Giovanni Monegato (1990): Principes de base de calcul numérique, Levrotto Bella, Torino
  • (FR) Walter Gautschi (1997): Analyse numérique. une introduction, Birkhäuser ISBN 3-7643-3895-4
  • A. Quarteroni, R. Sacco, F. Saleri (2000): Mathématiques numériques, Springer Italie, Milan

(Egalement disponible une version anglaise plus) ISBN 88-470-0077-7

  • G. Naldi, L. Pareschi, G. Russo (2001, 2004 et II.): Introduction à l'informatique scientifique, McGraw-Hill, ISBN 88-386-0885-7

Ouvrages de référence

  • Dario A. Bini, Viktor Y. Pan (1994): calculs polynomiale et matrice, Birkhäuser, ISBN 0-8176-3786-9
  • R. Bevilacqua, D. Bini, M. Capovani, O. Menchi (1992): Méthodes numériques, Zanichelli, ISBN 88-08-14510-7
  • (FR) Philippe Ciarlet, sous la direction de Jacques Louis Lions. (1990): Manuel d'analyse numérique Volume I. Méthodes différences finies (Partie 1). Solution des équations en Rn (Part 1), Hollande du Nord, ISBN 0-444-70366-7
  • (FR) Philippe Ciarlet, sous la direction de Jacques Louis Lions. (1991): Manuel d'analyse numérique Volume II. Méthodes Finite Element (Partie 1), Hollande du Nord, ISBN 0-444-70365-9

Les fondements théoriques

  • Kendall, Atkinsons Weimin Han (2001): Analyse numérique théorique. Un cadre d'analyse fonctionnelle, Springer ISBN 0-387-95142-3

algèbre linéaire numérique

  • D. Bini, M. Capovani, O. Menchi (1988): Méthodes numériques pour l'algèbre linéaire, Zanichelli, ISBN 88-08-06438-7
  • (FR) Gene H. Golub, Charles F. Van Loan (1996): calculs de la matrice, ed III., Johns Hopkins University Press, ISBN 0-8018-5414-8

plus

Articles connexes

D'autres projets

liens externes

autorités de contrôle GND: (DE4042805-9

Activité wiki récente

Aidez-nous à améliorer BooWiki
Commencez