miércoles, 26 de noviembre de 2014

CONCLUSIÓN

EN ESTE MODULO EL MAS EXTENSO Y CARGADO DE CONTENIDO. Los sistemas de ecuaciones equivalentes son los que tienen el mismo conjunto de soluciones, aunque tengan distinto número de ecuaciones. Obtenemos sistemas equivalentes por eliminación de ecuaciones dependientes. Si: Todos los coeficientes son ceros. Dos ecuaciones son iguales. Una ecuación es proporcional a otra. Una ecuación es combinación lineal de otras. la regla de CRAMER nuestro ultimo tema es el que mas me gusto, por que creo que lo entendí muy bien., al igual que a matrices lineales, cuadráticas. confundo ciertos métodos pero igual practicando un poco mas lograre recordarlos y aprenderlos bien. por otra parte el curso me gusto mucho lo disfrute, aunque siento que la velocidad con que vemos los temas no es la optima y el temario es extenso. NO ME QUEDA MAS QUE AGRADECER A MI PROFESOR Y A MIS COMPAÑEROS QUE APOYARON Y ESTUVIERON AL PENDIENTE.

Regla de cramer

REGLA DE CRAMER

Regla de Cramer La regla de Cramer es un teorema del álgebra lineal que da la solución de un sistema lineal de ecuaciones en términos de determinantes. Recibe este nombre en honor a Gabriel Cramer (1704 - 1752), quien publicó la regla en su Introduction à l'analyse des lignes courbes algébriques de 1750, aunque Colin Maclaurin también publicó el método en su Treatise of Geometry de 1748 (y probablemente sabía del método desde 1729).1 La regla de Cramer es de importancia teórica porque da una expresión explícita para la solución del sistema. Sin embargo, para sistemas de ecuaciones lineales de más de tres ecuaciones su aplicación para la resolución del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prácticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es más eficiente que la eliminación gaussiana para matrices pequeñas, particularmente cuando son usadas operaciones SIMD. Si \mathbf{Ax} = \mathbf{b} es un sistema de ecuaciones. \mathbf{A} es la matriz de coeficientes del sistema, \mathbf{x} = (x_1,\dots,x_n) es el vector columna de las incógnitas y \mathbf{b} es el vector columna de los términos independientes. Entonces la solución al sistema se presenta así: x_j = \cfrac { \det(\mathbf{A}_j) }{ \det(\mathbf{A}) } donde \mathbf{A}_j es la matriz resultante de reemplazar la j-ésima columna de \mathbf{A} por el vector columna \mathbf{b}. Hágase notar que para que el sistema sea compatible determinado, el determinante de la matriz \mathbf{A} ha de ser no nulo.

EXPANSIÓN POR COFACTORES

Se puede probar el siguiente: Teorema Todo determinante es igual a la suma de los productos de los elementos de un renglón (o columna) cualquiera por sus cofactores correspondientes.

PROPIEDADES DE LOS DETERMINANTES

Los determinantes tienen las siguientes propiedades que son útiles para simplificar su evaluación. En los párrafos siguientes consideramos que A es una matriz cuadrada. Propiedad 1. Si una matriz A tiene un renglón (o una columna) de ceros.

Determinantes por cofactores

DEFINICIÓN DE UNA DETERMINANTE

En Matemáticas se define el determinante como una forma multilineal alternada de un cuerpo. Esta definición indica una serie de propiedades matemáticas y generaliza el concepto de determinante haciéndolo aplicable en numerosos campos. Sin embargo, el concepto de determinante o de volumen orientado fue introducido para estudiar el número de soluciones de los sistemas de ecuaciones lineales.

DETERMINANTES

A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A , denotado por |A| o por det (A) . |A| = Determinante de orden uno |a 11 | = a 11 Ejemplo |5| = 5 Determinante de orden dos = a 11 a 22 − a 12 a 21

Como calcular la inversa de una matriz parte2

Como calcular la inversa de una matriz parte1

MATRIZ INVERSA

Definición de matriz inversa Se dice que una matriz cuadrada A es inversible, si existe una matriz B con la propiedad de queA·B = B·A = I siendo I la matriz identidad. Denominamos a la matriz B la inversa de A y la denotamos por A-1. Una matriz se dice quees inversible o regular si posee inversa. En caso contrario, se dice que es singular. Supongamos A= 2513 y B = 3-5-12 Entonces: A·B=2513 ·3-5-2 =6-5-10+103-3-5+6=1001=1B·A=3-512·2513= 6-515-15-2+2-5+6= 1001= 1 Puesto que AB = BA = I, A y B son inversibles, siendo cada una la inversa de la otra.

División de matrices - Álgebra - Educatina

Suma y resta de matrices - Álgebra - Educatina

PROPIEDADES DE LAS OPERACIONES CON MATRICES

Las matrices son objetos matemáticos que no se interrelacionan como los números o las funciones, ya que carecen de algunas de la propiedades usuales de éstos objetos anteriores. Sin embargo, poseen otras muy interesantes, que veremos en el siguiete punto: la aritmética de matrices. portante notar que la suma de matrices solo está definida para matrices que poseen el mismo orden. Propiedades de la suma de matrices[editar] (M_{m n}(K),+) \, es un grupo abeliano. Id est, verifica las siguientes propiedades: Asociatividad: A + (B + C) = (A + B) + C para cualesquiera A,B,C \in\ M_{m n}(K) \,. Conmutatividad: A + B = B + A para cualesquiera A,B \in\ M_{m n}(K) \,. Elemento Neutro: la matriz formada enteramente por ceros, que en ocasiónes denotaremos como matriz 0, verifica que A + 0 = A para cualquier A \in\ M_{m n}(K) \,. Elemento simétrico: para cualquier A \in\ M_{m n}(K) \,, existe -A \in\ M_{m n}(K) \, que verifica A + (- A) = 0. La demostración de estas propiedades se deduce claramente de las propiedades algebraicas de cuerpo que posee K.

TIPOS DE MATRCIES

Matríz cuadrada Se dice que una matriz A es cuadrada si tiene el mismo número de filas que de columnas. Ejemplos de matriz cuadrada: Puede ser una matriz con valores A\in\mathcal{M}_{3\times 3}(\mathbb{R}) A = \begin{bmatrix} +4 & +7 & -9 \\ +2 & +1 & +7 \\ -5 & +6 & +9 \end{bmatrix} Matriz Rectangular Es aquella matriz que no es cuadrada, esto es que la cantidad de filas es diferente de la cantidad de columnas. Puede ser de dos formas; vertical u horizontal. Matriz Vertical Es aquella que tiene más filas que columnas. Matriz Columna Caso especial de matriz vertical que posee una sola columna. Matriz Horizontal Es aquella que tiene más columnas que filas. Matriz Fila Caso especial de matriz horizontal que posee una sola fila. Matriz Diagonal Se llama diagonal principal de una matriz A a la diagonal formada por los elementos aii. Matriz diagonal, matriz cuadrada donde sus elementos a_{ij} = 0 si i \neq j . La matriz identidad es una matriz diagonal. Una matriz diagonal es una matriz cuadrada en que las entradas o valores son todos nulas salvo en la diagonal principal, y éstos incluso pueden ser nulos o no. Otra forma de decirlo es que es diagonal si todos sus elementos son nulos salvo algunos de la diagonal principal. Ejemplos de matrices Diagonales: Matriz Escalonada Es toda matriz en la que el número de ceros que precede al primer elemento no nulo, de cada fila o de cada columna, es mayor que el de la precedente. Puede ser escalonada por filas o escalonada por columnas. Matriz Triangular superior Se dice que una matriz es triangular superior si todos los elementos que están por debajo de la diagonal principal son nulos. Matriz Triangular inferior Se dice que una matriz es triangular inferior si todos los elementos que están por encima de la diagonal principal son nulos. Matriz Identidad Se llama matriz identidad de orden n y se nota In a una matriz cuadrada de orden n en la que los elementos de la diagonal principal son 1 y el resto 0. I_3\in\mathcal{M}_{3\times 3}(\mathbb{R}) I_3 = \begin{bmatrix} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 &0 & 1 \end{bmatrix} La matriz identidad puede ser de cualquier tamaño, siempre y cuando sea cuadrada Matriz Nula o Matriz Cero[editar] Una matriz cero o matriz nula es una matriz con todos sus elementos nulos, o sea de valor cero. Algunos ejemplos de matrices nulas son: Matriz Opuesta Teniendo una matriz determinada, se llama matriz opuesta de la antes mencionada a aquella que tiene por elementos los opuestos de los elementos de la matriz original. Matriz Traspuesta Matriz traspuesta (At). Se llama matriz traspuesta de una matriz A a aquella matriz cuyas filas coinciden con las columnas de A y las columnas coinciden con las filas de A. Matriz Simétrica Una matriz es simétrica cuando es una matriz cuadrada, y es igual a su traspuesta. Matriz Antisimétrica Una matriz es antisimétrica cuando es una matriz cuadrada, y es igual a la opuesta de su traspuesta, siendo los elementos de la diagonal principal nulos; de valor cero. Matriz Ortogonal Una matriz ortogonal es una matriz cuya matriz inversa coincide con su matriz traspuesta. Matriz Conjugada Una Matriz conjugada es el resultado de la sustitución de los elementos de una matriz A por sus valores conjugados. Es decir, la parte imaginaria de los elementos de la matriz cambian su signo. Ejemplo de matrices conjugadas Matrices iguales[editar] Se dice que dos matrices A y B son iguales si tienen la misma dimensión y son iguales elemento a elemento, es decir, aij=bij i=1,...,n j=1,2,...,m. Matriz definida positiva[editar] Una matriz definida positiva es una matriz hermitiana que en muchos aspectos es similar a un número real positivo. Matriz Unitaria Es una matriz compleja U, de n por n elementos, que satisface la condición: U^* U = UU^* = I_n\, donde I_n\, es la matriz identidad y U^* \, es el traspuesto conjugado (también llamado el hermitiano adjunto o la hermítica) de U. Esta condición implica que una matriz U es unitaria si tiene inversa igual a su traspuesta conjugada U^* \,. Una matriz unitaria en la que todas las entradas son reales es una matriz ortogonal.

Álgebra de matrices

ÁLGEBRA DE MATRICES

Definición: Una matriz es un arreglo ordenado de números (llamados elementos o componentes)) distribuídos en m filas y n columnas ( matriz de orden m por n ) En general a las matrices se les designará por una letra mayúscula A, B, C, M etc.. y sus elementos con las correspondientes letras minúsculas.

OPERACIONES ELEMENTALES SOBRE RENGLONES

REDUCCIÓN DE GAUSS Y GAUSS JORDAN

Ejemplo reducción gauss-jordan parte 1

5. Operaciones elementales - Álgebra lineal y matrices

DEFINICIONES

Se dice que dos matrices A y B son iguales si tienen la misma dimensión y son iguales elemento a elemento, es decir, aij=bij i=1,...,n j=1,2,...,m. Se dice que una matriz A es cuadrada si tiene el mismo número de filas que de columnas. Se llama matriz fila a aquella que tiene una única fila. Se llama matriz columna a aquella que tiene una única columna. Se llama diagonal principal de una matriz A a la diagonal formada por los elementos aii. Se dice que una matriz es triangular superior si todos los elementos que están por debajo de la diagonal principal son nulos. Se dice que una matriz es triangular inferior si todos los elementos que están por encima de la diagonal principal son nulos. Una matriz es diagonal si todos sus elementos son nulos salvo algunos de la diagonal principal. Se llama matriz identidad de orden n y se nota In a una matriz cuadrada de orden n en la que los elementos de la diagonal principal son 1 y el resto 0. Matriz traspuesta (At). Se llama matriz traspuesta de una matriz A a aquella matriz cuyas filas coinciden con las columnas de A y las columnas coinciden con las filas de A.

EXPRESIÓN MATRICIAL DE UN SISTEMA

e llama matriz ampliada (se representa por A^*) a la matriz de los coeficientes ampliada con la columna de los términos independientes. A^* = \left( \begin{array}{cccc} a_{11} & a_{12} & a_{13} & b_1\\ a_{21} & a_{22} & a_{23} & b_2\\ a_{31} & a_{32} & a_{33} & b_3 \end{array} \right ) Es frecuente expresar la matriz de los coeficientes (A) y la matriz ampliada (A^*) en una única expresión: A|A^* = \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13}\\ a_{21} & a_{22} & a_{23}\\ a_{31} & a_{32} & a_{33} \end{array} \right. \left | \begin{array}{c} b_1 \\ b_2 \\ b_3 \end{array} \right )

DEFINICIÓN DE MATRIZ

En matemática, una matriz es un arreglo bidimensional de números, y en su mayor generalidad de elementos de un anillo. Las matrices se usan generalmente para describir sistemas de ecuaciones lineales, sistemas de ecuaciones diferenciales o representar una aplicación lineal (dada una base). Las matrices se describen en el campo de la teoría de matrices. El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados mágicos se estudiaron desde hace mucho tiempo. Un cuadrado mágico, 3 por 3, se registra en la literatura china hacia el 650 a. C.2

MATRIZ

ELIMINACIÓN DE GAUSS Y GAUSS JORDAN

En matemáticas, la eliminación de Gauss-Jordan, llamada así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una matriz diagonal.
Algoritmo de eliminación de Gauss-Jordan Ir a la columna no cero extrema izquierda Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro que no lo tenga Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en la forma de escalón) Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener un 1 delantero e introducir ceros arriba de éste sumando múltiplos correspondientes a los renglones correspondientes Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan), esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida

SISTEMA DE ECUACIONES EQUIVALENTES

Se dice que dos sistemas de ecuaciones lineales son equivalentes cuando tienen las mismas soluciones, es decir, toda solución del primero lo es también del segundo y, recíprocamente, cada solución del segundo es también solución del primero.

CONCLUSIÓN

Recordemos las ventajas de cada uno de los tres métodos aprendidos: * El método de sustitución es especialmente útil cuando una de las incógnitas tiene coeficiente 1 ó -1 en alguna de las ecuaciones. * El método de reducción es muy cómodo de aplicar cuando una de las incógnitas tiene el mismo coeficiente en las dos ecuaciones o bien sus coeficientes son uno múltiplo del otro. * Si queremos evitar las operaciones con fracciones, podemos conseguirlo aplicando dos veces el método de reducción para despejar, así, una y otra incógnita. Este consejo es especialmente útil cuando los coeficientes de las incógnitas son números grandes.

Sistema de dos ecuaciones lineales con dos incógnitas: Método de elimina...

Aprende matemáticas: sistemas de ecuaciones: método de igualación

Solución de un Sistema de 2x2 por el Método de Sustitución

CONSIENTES, INCONSIENTES

Consistente dependiente: Si todas las ecuaciones en un sistema de ecuaciones lineales calculan la misma recta en un pedazo de papel milimetrado, de manera que todas las rectas se superpongan unas sobre otras, podemos llamar a tal sistema de ecuaciones como un sistema de ecuaciones lineales inconsistente e independiente. En este caso obtenemos un número infinito de soluciones porque todos los puntos por encima de la recta son puntos de intersección. - See more at: http://mitecnologico.com/igestion/Main/ClasificacionDeLosSistemasDeEcuacionesLineales
Consistente independiente: Este es el sistema más general de las ecuaciones lineales, donde tenemos un número de rectas que se interceptan en un solo punto, el cual es la única solución para el sistema de ecuaciones, y denominamos a tal sistema de ecuaciones consistente e independiente. - See more at: http://mitecnologico.com/igestion/Main/ClasificacionDeLosSistemasDeEcuacionesLineales#sthash.Gj7biRpd.dpuf

SISTEMA DE ECUACIONES LINEALES

MODULO IV

SISTEMAS DE ECUACIONES LINEALES n matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente: \left \{ \begin{array}{rcrcrcr} 3 \,x_1 & + & 2\,x_2 & + & \,x_3 & = & 1 \\ 2 \,x_1 & + & 2\,x_2 & + & 4 \,x_3 & = & -2 \\ - \,x_1 & + & \frac{1}{2} \,x_2 & - & \,x_3 & = & 0 \end{array} \right .

ÁREA ENTRE UNA Y DOS CURVAS. CONCLUSIÓN

Para encontrar el área de una región entre dos curvas, hay que considerar dos funciones y=f(x) y y=g(x), las cuales tiene que ser continuas en los intervalos [a,b]. Si las graficas están sobre el eje x y la grafica y=g(x) esta debajo de la grafica y=f(x), se puede interpretar geométricamente el área de la región entre las graficas, es decir restar el área de la funcion y=g(x) al área de la función y=f(x), esto nos dará el área entre 2 curvas en determinados intervalos. Definición Si y=f(x) y y=g(x) son continuas en [a,b] y y=g(x) ≤ y=f(x) para todo x en [a,b], entonces el area de la región acotada por las graficas y=f(x) y y=g(x) y las rectas verticales x = a y x = b es A=\int_{a}^{b}\left[f(x)-\right g(x)]\;dx Area.png Lee mas en : Áreas entre curvas, por WikiMatematica.org wikimatematica.org Follow us: @wikimatematica on Twitter | wikimatematica on Facebook
CONCLUSIÓN Con pocas modificaciones podemos extender la aplicación de las integrales definidas para el cálculo de una región situada por debajo de una curva, al área comprendida de un región entre dos curvas.

Integral definida y sus propiedades básicas

TEOREMA FUNDAMENTAL DE CALCULO

El teorema fundamental del cálculo consiste (intuitivamente) en la afirmación de que la derivación e integración de una función son operaciones inversas. Esto significa que toda función continua integrable verifica que la derivada de su integral es igual a ella misma. Este teorema es central en la rama de las matemáticas denominada análisis matemático o cálculo. El teorema es fundamental porque hasta entonces el cálculo aproximado de áreas -integrales- en el que se venía trabajando desde Arquímedes, era una rama de las matemáticas que se seguía por separado al cálculo diferencial que se venía desarrollando por Isaac Newton, Isaac Barrow y Gottfried Leibniz en el siglo XVIII y dio lugar a conceptos como el de las derivadas. Las integrales eran investigadas como formas de estudiar áreas y volúmenes, hasta que en ese punto de la historia ambas ramas convergieron, al demostrarse que el estudio del "área bajo una función" estaba íntimamente vinculado al cálculo diferencial, resultando la integración, la operación inversa a la derivación.

ÁREA BAJO LA CURVA

MODULO III

INTEGRAL DEFINIDA La integración es un concepto fundamental del cálculo y del análisis matemático. Básicamente, una integral es una generalización de la suma de infinitos sumandos, infinitamente pequeños. El cálculo integral, encuadrado en el cálculo infinitesimal, es una rama de las matemáticas en el proceso de integración o antiderivación, es muy común en la ingeniería y en la ciencia también; se utiliza principalmente para el cálculo de áreas y volúmenes de regiones y sólidos de revolución. Fue usado por primera vez por científicos como Arquímedes, René Descartes, Isaac Newton, Gottfried Leibniz e Isaac Barrow. Los trabajos de este último y los aportes de Newton generaron el teorema fundamental del cálculo integral, que propone que la derivación y la integración son procesos inversos.

martes, 25 de noviembre de 2014

CONCLUSIÓN

En este modulo entramos de lleno a las integrales., creo que es uno de los módulos mas difíciles. El integrar lleva muchos pasos y me es complicado recordar o no confundir. aparte por el ritmo que llevamos de temas visto es casi imposible detenerse a entenderlos.

MÉTODO DE INTEGRACIÓN POR PARTES

El método de integración por partes se basa en la derivada de un producto y se utiliza para resolver algunas integrales de productos. derivado un producto integral de la derivada de un producto despejar fórmula de la integral por partes

INTEGRAL POR PARTES

Ejemplo 1 * Resolver la siguiente integral: Solución Método a emplear: Integración por Partes. Regla de integración: Ecuación 1.3 y 1.6 * Desarrollo: v Por la teoría expuesta, conviene hacer las siguientes elecciones: u = x (1) y (2) · Derivar ambos miembros de (1) para obtener: du=dx · Aplicar integrales a ambos miembros de (2), para obtener: (3) · Usando integración directa en el término de la izquierda y el método de CDV, en el término de la derecha de (3), para obtener: (4) v Reemplazar en la Ecuación 1.6, cada uno de sus factores por las expresiones obtenidas en (1), (2) y (4), para obtener: = (5) v Para resolver la última integral, se efectúa un CDV y se obtiene una integral inmediata. Para su solución, se aplica la Ecuación 1.3. Así: = (6) v Sustituir (6) en (5) y ordenar el resultado usando factorización.

INTEGRALES QUE INCLUYEN FUNCIONES LOGARITMICAS

Calcular las integrales logarítmicas: 1.integral de logarímo neperiano integral de logarímo neperiano 2.integral de logarímo neperiano integral de logarímo neperiano 3.integral de logarímo neperiano integral de logarímo neperiano

MUSICA PARA ESTUDIAR MATEMATICAS POR MUCHAS HORAS CENTRO PSICOPEDAGOGICO

INTEGRALES QUE INCLUYEN FUNCIONES EXPONENCIALES

Para valores reales de x, la integral exponencial Ei(x) se define como \mbox{Ei}(x)=\int_{-\infty}^x\frac{e^t}t\,\mathrm dt.\, Esta definición puede ser utilizada para valores positivos de x, pero a causa de la singularidad del integrando en cero, la integral debe ser interpretada en término del valor principal de Cauchy. Para valores complejos del argumento, esta definición es ambigua a causa de los puntos de ramificación en 0 y en \infty.1 En general, se realiza un corte en el eje real negativo y Ei puede ser definida mediante una continuación analítica en el resto del plano complejo. Se utiliza la siguiente notación,2 \mathrm{E}_1(z) = \int_z^\infty \frac{e^{-t}}{t}\,\mathrm dt,\qquad|{\rm Arg}(z)|<\pi Para valores positivos de la parte real de z, esto se puede expresar como3 \mathrm{E}_1(z) = \int_1^\infty \frac{e^{-tz}}{t}\,\mathrm dt,\qquad \Re(z) \ge 0. El comportamiento de E1 cerca del branch cut puede ser analizado mediante la siguiente relación:4 \lim_{\delta\to0\pm}\mathrm{E_1}(-x+i\delta) = -\mathrm{Ei}(x) \mp i\pi,\qquad x>0,

Derivada con la Regla de la Cadena para Potencias

REGLA DE LA POTENCIA.

La regla de la potencia de la integración te da la solución general para la integral de cualquier variable elevada a cualquier potencia excepto -1, lo que representa un caso especial. Ya que las integrales son primitivas, en otras palabras, si integras la derivada de una función, terminas con la función original, piensa en la regla de la potencia de la integración como hacer lo contrario de lo que hace la regla de la potencia para los derivados.

INTEGRAL DE UNA CONSTANTE POR UNA FUNCIÓN DE X

La derivada de cualquier función constante es cero. Una vez se ha encontrado una primitiva F, sumándole o restándole una constante C se obtiene otra primitiva, porque (F + C) ' = F ' + C ' = F'. La constante es una manera de expresar que cada función tiene un número infinito de primitivas diferentes. Por ejemplo, supóngase que se quiere encontrar las primitivas de cos(x). Una de estas primitivas es sin(x). Otra es sin(x)+1. Una tercera es sin(x)-π. Cada una de estas funciones tiene por derivada cos(x), por lo tanto todas son primitivas de cos(x). Resulta que añadir y restar constantes es el único grado de libertad que hay al encontrar primitivas diferentes de la misma función. Es decir, todas las primitivas son las mismas con la diferencia de una constante. Para expresar este hecho para cos(x), se escribe: \int \cos(x)\,dx = \sin(x) + C. Sustituyendo C por un número cualquiera, se obtiene una primitiva. En cambio, escribiendo C en vez de un número se obtiene una descripción compacta de todas las primitivas posibles de cos(x). C se denomina constante de integración. Se puede comprobar fácilmente que todas estas funciones son, en efecto, primitivas de cos(x): {d\over dx}[\sin(x) + C] = {d\over dx}[\sin(x)] + {d\over dx}(C) = \cos(x) + 0\, = \cos(x)\,.

lunes, 24 de noviembre de 2014

INTEGRAL DE UNA CONSTANTE POR UNA VARIABLE.

Existen varios métodos de integración, consistiendo todos ellos en reducir la integral buscada a una integral ya conocida, como por ejemplo una de las de la tabla, ó bien reducirla a una integral más sencilla. El método de integración por sustitución o cambio de variable se basa en la derivada de la función compuesta. Queremos realizar la integral ∫ ƒ(x) dx donde ƒ no tiene una primitiva inmediata. Debemos buscar un cambio de variable que transforme la integral en una integral inmediata o composición de funciones. Entonces, para el cambio, x = g(t) dx dx = g′(t)dt ∫ ƒ(x) dx = ∫ f(g(t))g′(t) dt De esta forma se ha transformado la integral indefinida en otra, función de la nueva variable t. Si la elección de la variable t ha sido acertada, la integral resultante es más sencilla de integrar. El éxito de la integración depende, en grado considerable, de la habilidad para elegir la sustitución adecuada de la variable. Una vez obtenida la función primitiva, F(t) + C, se deshace el cambio de la variable substituyendo t = g (x). Así se tiene la integral indefinida en función de la variable inicial x.

Integral definida mediante cambio de variable

INTEGRAL INDEFINIDA DE UNA CONSTANTE

Integral indefinida Llamamos al conjunto de todas antiderivadas de una función la integral indefinida de la función. Escribimos la integral indefinida de la función f como f(x) dx y la leemos como "la integral indefinida de f(x) respecto a x" Por lo tanto, f(x) dx es una conjunto de funciones; no es una función sola, ni un número. La función f que se está integrando se llama el integrando, y la variable x se llama la variable de integración. Ejemplos 2x dx = x2 + C La intgegral indefinida de 2x respecto a x es x2 + C 4x3 dx = x4 + C La integral indefinida de 4x3 respecto a x es x4 + C Leyendo la formula Leemos la primera formula más arriba como sigue: 2x dx = x2 + C La antiderivada de 2x, respecto a x, es igual a x2 + C La constante de integración, C, nos recuerda que podemos añadir cualquiera constante y así obtener una otra antiderivada.

CONGRESO DE ADMINISTRACIÓN HOTELERA

No sólo hay actividades académicas, hay momentos de recreación donde gozamos el estar juntos y compartiendo, profesores y alumnos.

FÓRMULAS BÁSICAS DE INTEGRACIÓN.

La integral de “n” numero siempre será nx + C. Ejemplo La integral de una constante siempre será constante * variable +C (ax+C) La integral de X elevado a “n” numero será Xn+1, lo que se haga en la exponenciación de la X se pondrá también abajo dividiéndola, es una regla establecida. Ejemplo La integral que divide arriba sobre una variable abajo será logaritmo natural de variable mas C. La formula marca lnX+C porque arriba en dx no tiene constante ni variable pero sí un 1 imaginario, ejemplo. La integral de un producto se puede separar siempre y cuando no se altere su ecuación. De esta forma se integra en partes. No tienen que ser 3 productos necesariamente para usar la formula ;) Ejemplo. La integral de un Binomio (V) es parecida a la formula 3, solo que acá al sacar la derivada del binomio (dv) se comprueba que exista la derivada fuera de V, en caso que no exista, se iguala hasta quedar exacto y se elimina, quedando solo el binomio (V) mas la exponenciación + 1. Se saca el binomio que es (2+X2) La derivada del binomio es 2X y se le agrega dx, queda 2Xdx. Se comprueba que 2X coincida con el producto de afuera que es X, como es 2X y tenemos X solamente, entonces se tiene que igualar a 2X…¿Cómo?, multiplicando 2(X), lo que hagamos dentro se hace afuera pero en reciproco. Y se elimina la igualdad quedando lo restante. Ya que se elimino el producto de afuera, se procede con la formula 3, y el ½ estará multiplicando al resultado que quede de la formula. El 2 que esta en la división del binomio tiene que desaparecer, no se puede multiplicar directo con el 2 de afuera. Para eliminarlo se debe multiplicar medios con medios, extremos con extremos. En realidad se ven muchos pasos en este último problema, pero al realizarlo apenas alcanza unas 6 líneas de cuaderno. No son todas las formulas, hay mas formulas que son las de exponenciación y las formulas trigonométricas. También existen identidades trigonométricas y métodos (casos) que hacen de los problemas complicadísimos mas fáciles de entender y solucionar, pero eso lo explicare más adelante.

Introducción al concepto de antiderivada 1 (integral indefinida)

INTEGRAL INDEFINIDA

Integración Integrar es el proceso recíproco del de derivar, es decir, dada una función f(x), busca aquellas funciones F(x) que al ser derivadas conducen a f(x). Se dice, entonces, que F(x) es una primitiva o antiderivada de f(x); dicho de otro modo las primitivas de f(x) son las funciones derivables F(x) tales que: F'(x) = f(x). Si una función f(x) tiene primitiva, tiene infinitas primitivas, diferenciándose todas ellas en una constante. [F(x) + C]' = F'(x) + 0 = F'(x) = f(x) Integral indefinida Integral indefinida es el conjunto de las infinitas primitivas que puede tener una función. Se representa por ∫ f(x) dx. Se lee : integral de f de x diferencial de x. ∫ es el signo de integración. f(x) es el integrando o función a integrar. dx es diferencial de x, e indica cuál es la variable de la función que se integra.

domingo, 23 de noviembre de 2014

ANTIDERIVADA

INTEGRACIÓN: ANTIDERIVADA

CONCEPTO DE ANTIDERIVADA La antiderivada es la función que resulta del proceso inverso de la derivación, es decir, consiste en encontrar una función que, al ser derivada produce la función dada. Por ejemplo: Si f(x) = 3×2, entonces, F(x) = x3, es una antiderivada de f(x). Observe que no existe una derivada única para cada función. Por ejemplo, si G(x) = x3+ 5, entonces es otra antiderivada de f(x). La antiderivada también se conoce como la primitiva o la integral indefinida se expresa de la siguiente manera: en donde: f(x) es el integrando; dx, la variable de integración o diferencial de x y C es la constante de integración. Notación... Un tipo muy importante de problemas es cuando conocemos la derivada de una función (la tasa de variación instantánea o la pendiene a su gráfica) y queremos encontrar la función. Por ejemplo, conocemos la velocidad y queremos calcular el espacio recorrido. El proceso de encontrar una función a partir de su derivada se llama antidiferenciación, también decimos que buscamos una función primitiva o una integral indefinida. La antidiferenciación es una operación inversa a la diferenciación. El uso de la palabra integración aquí puede parecer extraño ya que el problema de integración está relacionado de alguna manera con encontrar un área (es un proceso de acumulación, de suma) mientras que la diferenciación está relacionada con la idea de variación instantánea o con la pendiente de la tangente a la gráfica de una función. No parece, en principio, que estos problemas estén relacionados. Sin embargo, veremos más tarde que estos dos problemas están profundamente conectados (Teorema fundamental del Cálculo) y que, de algún modo, integración y diferenciación son procesos inversos. Se dice que F(x) es una antiderivada (o una primitiva o una integral indefinida) de f(x) en un intervalo abierto si la derivada de F es f para todos los valores de x en el intervalo. Antiderivada, antidiferenciación, primitiva, integral indefinida: definición | matematicasVisuales Es interesante notar que definimos 'una' primitiva y no 'la' primitiva. Esto es debido a que las funciones primitivas no son únicas. Sin embargo las primitivas sólo se diferencian en una constant. Es decir: Dos primitivas F y G de la misma función f difieren solamente en una constante.

MODULO II: INTEGRACIÓN

Problemas de optimización - funciones varias variables - Ejemplo #1

OPTIMIZACIÓN DE FUNCIONES DE DOS VARIABLES

Optimización de funciones En la resolución de problemas de optimización de funciones seguiremos los siguientes pasos: 1. Plantear la función que hay que maximizar o minimizar. 2. Plantear una ecuación que relacione las distintas variables del problema, en el caso de que haya más de una variable. 3.Despejar una variable de la ecuación y sustituirla en la función de modo que nos quede una sola variable. 4. Derivar la función e igualarla a cero, para hallar los extremos locales. 5. Realizar la 2ª derivada para comprobar el resultado obtenido.

INTEGRACIÓN

Integración por partes I El método de integración por partes se basa en la derivada de un producto y se utiliza para resolver algunas integrales de productos. derivado un producto integral de la derivada de un producto despejar fórmula de la integral por partes Tenemos que derivar u e integrar v', por lo que será conveniente que la integral de v' sea inmediata. Las funciones polinómicas, logarítmicas y arcotangente se eligen como u. Las funciones exponenciales y trígonométricas del tipo seno y coseno, se eligen como v'.

MÁXIMOS Y MÍNIMOS

IMAGEN DE UN PLANO

MÁXIMOS Y MÍNIMOS DE DOS FUNCIONES VARIABLES.

MÁXIMOS Y MÍNIMOS DE FUNCIONES DE DOS VARIABLES Dado un campo escalar f: D  R 2 R, D abierto y (x0, y0)  D.  Se dice que (x0, y0) es un punto crítico o estacionario de f si f (x, y) es diferenciable y ( , ) (0, 0) df x0 y0   ( , ) (0, 0) f x0 y0   ( , ) 0 f x x0 y0  y f y (x0 , y0 )  0 . El punto (x0, y0, f (x0, y0)) se llama punto crítico o estacionario de la superficie. El plano tangente en un punto crítico es horizontal. Generalmente los puntos estacionarios de una superficie se clasifican en máximos, mínimos y punto Ejemplos: a) La función 2 2 f (x, y)  x  y tiene un mínimo en el punto (0, 0). El valor de f (x, y)  0 para todo punto de un entorno de (0, 0). Como puede verse, el punto (0, 0) es estacionario: f x y x x ( , )  2 y f x y y y ( , )  2 se anulan a la vez en el punto (0, 0). El plano z = 0 es tangente a ella en el punto (0, 0, 0). b) La función 2 2 f (x, y)  2  x  y tiene un máximo en el punto (0, 0). El valor de f (x, y)  2 para todo punto de un entorno de (0, 0). Como puede verse, el punto (0, 0) es estacionario: f x y x x ( , )  2 y f x y y y ( , )  2 se anulan a la vez en el punto (0, 0). El plano z = 2 es tangente a ella en el punto (0, 0, 2). c) La función 2 2 f (x, y)  x  y tiene un punto de silla en (0, 0). Existen puntos de os de silla.

miércoles, 5 de noviembre de 2014

MODULO I: INTRODUCCIÓN AL CÁLCULO...DERIVADAS

En matemática, una derivada parcial de una función de diversas variables, es su derivada respecto a una de esas variables manteniendo las otras como constantes. Las derivadas parciales son útiles en cálculo vectorial y geometría diferencial. La derivada parcial de una función f respecto a la variable x se representa con cualquiera de las siguientes notaciones equivalentes: ∂f∂x=∂xf=f′x Donde ∂ es la letra 'd' redondeada, conocida como la 'd de Jacobi'. Cuando una magnitud A es función de diversas variables (x,y,z,...), es decir: A=f(x,y,z,...) Al realizar esta derivada obtenemos la expresión que nos permite obtener la pendiente de la recta tangente a dicha función A en un punto dado. Esta recta es paralela al plano formado por el eje de la incógnita respecto a la cual se ha hecho la derivada y el eje z. Analíticamente el gradiente de una función es la máxima pendiente de dicha función en la dirección que se elija. Mientras visto desde el álgebra lineal, la dirección del gradiente nos indica hacia donde hay mayor variación en la función.