Search This Blog

Wednesday, September 27, 2017

El algoritmo de llenado proporcional (Proportional fill)

En una reunión fuera de lo laboral me hicieron la siguiente pregunta:

¿Si yo pongo más archivos a mi base de datos, va a funcionar mejor?  o me da lo mismo?

Bien, la respuesta es relativa, ahora, de entrada, podemos decir que el rendimiento se va a mejorar, no sabemos a ciencia cierta y con tan poca información cuanto vaya a mejorar, pero de que mejora mejora, sea un 1%, pero eso es mejora al fin y al cabo.

El paso a seguir es entender cómo funciona el algoritmo de llenado proporcional (Proportional fill) que usa SQL Server.

El algoritmo de llenado proporcional en SQL Server se encarga básicamente de distribuir la carga a través de los diferentes archivos de datos que tenga un filegroup, como regla básica, la carga se va hacia el archivo de datos que mayor espacio disponible tenga.

Funciona mediante Round-Robin, de esta forma el algoritmo intenta ser lo mas equitativo posible en términos de carga en los archivos, sin embargo, esto trae otro dolor de cabeza, ¿Todos los discos de mi maquina tienen el mismo rendimiento esperado en términos de IOPs?, de ser así, pues no hay problema, pero de no ser así (Que es como seguramente ocurre), entonces vienen los problemas, se debe tener en cuenta que el rendimiento de mi base de datos entonces dependerá de mi componente mas lento, pero bueno, para seguir mas a fondo, veamos entonces:

¿Como saber cuánto espacio disponible tengo en cada archivo de datos?

SQL Server cuenta con la función FileProperty, esta función recibe como parámetros el nombre del archivo y la propiedad que se desea obtener, para este caso utilizamos la opción SpaceUsed, esta nos devuelve la información en términos de la cantidad de paginas en el archivo, siendo asi, debemos tener en cuenta que una pagina en SQL Server tiene un tamaño de 8KB, por ende debemos multiplicar este dato por 8 para obtener el tamaño en KB.

SELECT (FILEPROPERTY('AdventureWorks2012_Data', 'SpaceUsed') * 8)/1024 [Espacio en MB]

De igual manera utilizamos la tabla del sistema sys.master_files, allí tenemos cada archivo de datos y de log dentro de la base de datos, allí encontramos el tamaño del archivo igualmente en términos de paginas.

select name,
CAST(FILEPROPERTY(name, 'SpaceUsed') AS float) [Paginas],
size * 8 [Tamano KB],
CAST(FILEPROPERTY(name, 'SpaceUsed') AS float) * 8 [Usado en KB],
(size * 8) - (CAST(FILEPROPERTY(name, 'SpaceUsed') AS float) * 8) [Disponible en KB]
from sys.master_files
where type = 0
and database_id = db_id()

Tuesday, January 21, 2014

Bloqueo automatico de cuentas en SQL Server por numero de intentos

Algunas personas me han preguntado sobre la posibilidad de bloquear las cuentas de SQL Server cuando los usuarios fallen demasiadas veces al intentar autenticarse, aquí la solución aprovechando las características de directorio activo.


Friday, October 18, 2013

Ejecutar múltiples archivos SQL

Durante el Pass Summit en Charlotte, charlando con mi amigo Guillermo Taylor que por cierto les recomiendo leer su blog, hablábamos sobre la necesidad de ejecutar aproximadamente 4000 archivos SQL y cómo hacerlo rápidamente, bueno, durante esas charlas en los intermedios de más charlas llegamos a la conclusión de hacerlo utilizando PowerShell.

Ahora, imaginen un archivo .TXT con las siguientes características

C:\Queries\Query1.sql
D:\Consultas\Consulta1.sql
P:\MoreQueries\Query2.sql
P:\Consultas2\Consulta.sql



Bien, como pueden ver, el archivo contiene múltiples ubicaciones, bien, podríamos haberlo hecho utilizando SSIS (Como hacerlo con SSIS), pero solo para poner en practica nuestros skills con PowerShell decidimos hacerlo allí.

 

$archivo = "C:\ArchivosSQL\test.txt"
$entradas = gc $archivo
foreach ($entrada in $entradas)
{
    SQLCMD -S <SERVIDOR> -U <USUARIO> -P <PASSWORD> -d <BASE DE DATOS> -i $entrada
}




Enjoy it from the #Summit13 at #SQLPass

Tuesday, August 20, 2013

Antes y después del Merge – Upsert SQL Server

Hace poco tiempo un cliente me comentaba sobre la necesidad de ejecutar comandos de tipo UPSERT, típicamente este proceso lo venía haciendo de forma manual, hacia una revisión uno a uno de los campos y luego mediante estructuras en TSQL hacia la carga o la actualización a su base de datos, por eso me dispuse a escribir este post.

Desde la versión 2008 de Microsoft SQL Server, contamos con una nueva forma de actualizar o insertar datos a una tabla, este comando nos permite ir un paso más allá y en una sola transacción efectuar todo el proceso, de golpe y sin mayores complicaciones.

Ver todo el post en:

Thursday, January 31, 2013

Como determinar que puerto esta utilizando SQL Server 2012 Analysis Services

Un inconveniente común ahora entre muchos clientes que han implementado SQL Server Analysis Services en su versión 2012, es el cambio dinámico de puertos, típicamente estábamos acostumbrados a tener un puerto fijo en SSAS en versiones anteriores del producto, a partir de SQL Server 2012 y específicamente hablando de implementaciones de SSAS Tabular Mode, nos encontramos con puertos dinámicos, de esta forma, si el cliente reinicia su servidor o reinicia los servicios, el puerto cambiara dinámicamente, muchas aplicaciones usan queries a RPC para determinar que puerto esta utilizando un servicio y de esa forma dinámicamente determinar a que puerto debe conectarse, como es el caso de SQL Server Management Studio y que redunda en la razón por la cual muchos no detectamos esto hasta tanto alguien mas intenta ingresar utilizando opciones diferentes como por ejemplo PowerView desde Microsoft SharePoint.

Con el fin de determinar que puerto esta utilizando SQL Server Analysis Services 2012 después de un reinicio, utilizaremos el command prompt y un par de líneas de código que retornaran la información deseada. (Ver todo el articulo)

Friday, October 5, 2012

Como particionar una tabla existente


Una de las tareas más deseadas hoy en día por muchos administradores de bases de datos, es el particionar sus tablas, una de las grandes ventajas del particionamiento de tablas en SQL Server, es la capacidad de distribuir la carga física en múltiples discos duros, por ende, existen más partes mecánicas ejecutando una sola tarea.
Sin embargo, gran parte de estas bases de datos existen desde hace mucho tiempo, por lo que no se encuentran particionadas en su gran mayoría, además de estar soportando actualmente aplicaciones de negocio, debido a esto... (Ver todo el articulo)

Thursday, October 4, 2012

Como especificar el fill factor en un índice


La opción de fill factor permite el afinamiento del rendimiento y almacenamiento de los índices, cuando un índice es creado o reconstruido, el fill factor determina el porcentaje de espacio a nivel de la hoja de cada página que será llenada con datos; reservando el espacio restante en cada página como espacio libre y disponible para futuro crecimiento.
Ejemplo
Si tenemos un índice con un fill factor de 80, esto significa que el 20% de la página será reservado para el momento en que se agreguen datos que deban ser guardados en ese espacio.
Lleno
Lleno
Lleno
Lleno
Lleno
Lleno
Lleno
Lleno
Libre
Libre
 
El fill factor es un número que va de 1 a 100, a nivel de servidor el valor predeterminado es 0, esto significa que las paginas serán llenadas en su totalidad – El valor 0 y 100 significan lo mismo para el fill factor –

Consideraciones para temas de rendimiento

Page splits (Contador: \SQLServer:Access Methods\Page Splits/sec)

Elegir correctamente el fill factor para los índices puede reducir notablemente los page splits, aprovisionando suficiente espacio para la expansión de los índices a medida que más datos sean agregados a la tabla; cuando una fila es agregada a una página de índice que se encuentra llena, el motor mueve aproximadamente la mitad de las filas a una nueva página con el fin de abrirle espacio a la nueva fila; el proceso de reorganización sobre las paginas es conocido como page split, este proceso abre espacio para nuevas filas, pero puede tomar tiempo además de ser costosa a nivel de recursos de máquina, además, puede causar fragmentación, lo que aumenta las operaciones de I/O.
Cuando ocurren operaciones de tipo page split de forma frecuente, se debe considerar la reconstrucción del índice (ALTER INDEX REBUILD) utilizando un valor diferente de fill factor para redistribuir los datos; para más información vea el articulo fragmentación y desfragmentación de índices.
 

Tener en cuenta para determinar el fill factor

Un valor para el fill factor diferente al 100%, es decir distinto de 0 y de 100, puede ser positivo para el rendimiento de la base de datos siempre y cuando la información que se va agregando a la tabla se distribuya sobre la misma; sin embargo, si la información que se va insertando a la tabla siempre va al final de la misma, los espacios vacíos nunca serán llenados ni aprovechados, por ejemplo, si estamos agregando información con una columna de tipo IDENTITY y que esta corresponde a la llave de la tabla, está siempre será incremental y las filas del índice serán agregadas al final del índice.
Si las filas actuales serán actualizadas con datos que aumenten el tamaño de las filas, es recomendable utilizar un fill factor menor a 100, estos bytes extra en cada página ayudaran a minimizar los page splits causados por el crecimiento del tamaño de fila.

Fragmentación y desfragmentación de índices


Una de las tareas más comunes y necesarias durante el proceso de optimización y mantenimiento de las bases de datos es la desfragmentación de los índices, es así mismo quizá la tarea más olvidada por los administradores de bases de datos.
Los índices altamente fragmentados pueden afectar de manera negativa el rendimiento del motor de bases de datos e incluso causar que su aplicación no responda de la manera adecuada. 

Fragmentación: Proceso mediante el cual el motor de base de datos debido a las constantes tareas de Insert, Update y Delete, a medida que estas instrucciones se van ejecutando dentro de nuestra base de datos, la misma sufre un proceso de dispersión de los datos, más conocida como fragmentación. La fragmentación ocurre cuando los índices tienen páginas que se encuentran ordenadas de forma lógica, y basándose en la llave estos no coinciden con el orden físico dentro del archivo de datos.

La fragmentación se puede solucionar mediante 2 opciones, reorganizar y/o reconstruir los índices, para los índices particionados esta tarea se puede ejecutar tanto en el índice completo como en la partición del mismo.
Reconstrucción del índice (Rebuild): Este proceso elimina y crea nuevamente el índice, remueve la fragmentación y recupera espacio en disco compactando las páginas basándose en la configuración del fill factor o en el parámetro de la instrucción.

Reorganización del índice (Reorganize): Este proceso requiere menos recursos del sistema y realiza la desfragmentación al nivel de la hoja de la página, reorganizando a nivel físico las hojas para que coincidan con el orden lógico de las mismas, la reorganización también compacta las páginas de los índices, esta se da basándose en la configuración del fill factor.
Detección de la fragmentación de los indices
Lo primero es determinar que método de desfragmentación usar, para esta tarea se puede utilizar la función sys.dm_db_index_physical_stats, esta nos devuelve la fragmentación de un índice, de los índices en una tabla, de los índices en una base de datos  o de todos los índices en todas las bases de datos, de igual manera para los índices particionados, esta función nos devuelve el estado de cada una de las particiones asociadas al índice.

Columna
Descripción
avg_fragmentation_in_percent
Porcentaje de fragmentación lógica
fragment_count
Cantidad de fragmentos
avg_fragment_size_in_pages
Numero promedio de páginas en un fragmento de un índice.
  
Tenga en cuenta las siguientes recomendaciones para determinar si debe reorganizar o reconstruir su índice. 

Porcentaje de fragmentación
Instrucción a ejecutar
Entre 5% y 30%
ALTER INDEX REORGANIZE
Mayor al 30%
ALTER INDEX REBUILD

Consulta para determinar el porcentaje de fragmentación (En toda la base de datos)

WITH INDICES (BD, INDICETIPO, FRAGMENTACION, INDICE, TABLA)
AS (
SELECT DBS.NAME BASEDEDATOS, PS.INDEX_TYPE_DESC, PS.AVG_FRAGMENTATION_IN_PERCENT,
IND.NAME INDICE, TAB.NAME TABLA
FROM
SYS.DM_DB_INDEX_PHYSICAL_STATS (DB_ID(), NULL, NULL, NULL, NULL) PS
INNER JOIN SYS.DATABASES DBS
ON PS.DATABASE_ID = DBS.DATABASE_ID
INNER JOIN SYS.INDEXES IND
ON PS.OBJECT_ID = IND.OBJECT_ID
INNER JOIN SYS.TABLES TAB
ON TAB.OBJECT_ID = IND.OBJECT_ID
WHERE IND.NAME IS NOT NULL AND PS.INDEX_ID = IND.INDEX_ID
AND PS.AVG_FRAGMENTATION_IN_PERCENT > 0)
SELECT DISTINCT 
      CASE
      WHEN FRAGMENTACION > 5 AND FRAGMENTACION <= 30 THEN 'ALTER INDEX ' + INDICE + ' ON ' + TABLA + ' REORGANIZE'     
      WHEN FRAGMENTACION > 30 THEN 'ALTER INDEX ' + INDICE + ' ON ' + TABLA + ' REBUILD'
      END QUERY, FRAGMENTACION, BD, INDICE, TABLA
FROM (SELECT FRAGMENTACION, INDICE, TABLA, BD FROM INDICES
      WHERE FRAGMENTACION > 5) A
ORDER BY FRAGMENTACION DESC

Los índices pueden ser reconstruidos en línea o fuera de línea, la reorganización siempre se da en línea, para mantener niveles de disponibilidad similares a la de los índices reorganizados, la reconstrucción debe darse en línea y mediante la instrucción.
ALTER INDEX REBUILD WITH (ONLINE = ON)

Friday, August 10, 2012

DBCC SHRINKFILE y sus implicaciones

 

Hace algun tiempo un cliente me pidio una solucion para poder reducir el tamano de las bases de datos, mi respuesta ante este tipo de preguntas siempre ha sido otras preguntas:

  1. Para que quiere reducir el tamano de su base de datos?
  2. No tiene espacio?

La respuesta ante esto es tipicamente la misma

  1. Para hacerle “Mantenimiento”
  2. Si tengo, pero es que quiero liberarlo…

Ante estas respuestas procuro siempre darle la misma recomendacion a mis clientes:

No lo haga, no lo haga a menos que sea extrictamente necesario!

Muchas veces los clientes y algunos DBAs ejecutan la siguiente instruccion con el fin de reducir el tamano de sus bases de datos

   1:  USE AdventureWorks;
   2:  GO
   3:  -- Truncate the log by changing the database recovery model to SIMPLE.
   4:  ALTER DATABASE AdventureWorks
   5:  SET RECOVERY SIMPLE;
   6:  GO
   7:  -- Shrink the truncated log file to 1 MB.
   8:  DBCC SHRINKFILE (AdventureWorks_Log, 1);
   9:  GO
  10:  -- Reset the database recovery model.
  11:  ALTER DATABASE AdventureWorks
  12:  SET RECOVERY FULL;
  13:  GO



Sin embargo este codigo tiene un impacto bastante importante…


Si vamos a la linea 4 y 5, vemos que la base de datos es inicialmente cambiada a modo de recuperacion SIMPLE, al hacer este cambio la historia de copias de seguridad (Backups) de la base de datos se pierde, de esta manera, si deseas sacar un backup diferencial de tu base de datos, sera necesario sacar un backup full nuevamente.


Ten cuidado de las implicaciones que pueda tener la ejecucion de codigo dentro de tus bases de datos.


Nos leemos luego!


John Peace

Monday, April 16, 2012

Si Shakespeare fuese un DBA – Cluster o NonCluster, esa es la cuestion

 

Durante el SQL Saturday #124, llevado a cabo en Bogota, Colombia y con mas de 200 asistentes, formule una pregunta para la que aplica cualquier tipo de respuesta…

Usar un indice tipo Cluster o usar un indice tipo NonCluster, la pregunta fue rapida, sin mayores detalles, la verdad esperaba tener silencio en el auditorio, pero contrario a lo que yo pensaba, me encontre con multiples respuestas, podriamos decir que la mitad reaccionaron inmediatamente y a una sola voz dijeron CLUSTER…

Durante la charla decidi explicar de la mejor manera posible lo que es un indice Cluster y lo que es un Indice NonCluster, de esta forma las opiniones cambiaron y al final todos llegamos a un concenso… Que sea Cluster o NonCluster dependen unica y exclusivamente de los requerimientos del negocio y de los requerimientos tecnicos, no hay uno mejor que el otro, ni uno sera mas rapido que el otro, todo DEPENDE…

Indice tipo Cluster

Consiste en informacion organizada fisicamente, un ejemplo claro y rapido de este tipo de indices, es el indice principal de un libro, alli todo esta organizado fisicamente y cuando accedemos al dato lo hacemos de forma directa, sin embargo tiene implicaciones de rendimiento importante al momento de escribir o actualizar datos en una tabla o en el libro, veamoslo de la siguiente manera, si tomas un libro y haces un DELETE (Arrancas un par de hojas), seguramente actualizar el indice no sera muy complejo, simplemente vamos a las primeras paginas, ubicamos las hojas que eliminamos y podriamos tacharlas alli directamente, ahora bien, al mismo libro decidimos agregarle un nuevo capitulo entre el 1 y el 2, llamemoslo capitulo 1.5, luego tomamos el libro, lo mandamos desbaratar y agregamos las paginas de nuestro nuevo capitulo, para poder agregar este capitulo al indice se hace entonces necesario eliminar algunas paginas del indice, editarlas, abrirle espacio al nuevo capitulo y reacomodar la informacion que ya se encontraba contenida en ese indice…

Comportamiento en el motor Ejemplo de indice tipo Cluster
image image

 

indice tipo noncluster

El indice tipo NonCluster se asemeja entonces al glosario de un libro, en este la informacion no se encuentra almacenada fisicamente y funciona bajo los mismos parametros de un apuntador, sabemos que informacion es y donde se encuentra, una vez identificamos esta informacion debemos ir hasta alli…

Una de las grandes ventajas del indice tipo NonCluster es la velocidad de escritura y actualizacion, sin embargo en la busqueda no es tan efectivo como el tipo Cluster.

Comportamiento en el motor

Ejemplo de indice tipo NonCluster

image image

Hasta la proxima

Monday, March 12, 2012

SSIS Fuzzy Lookup Add-in for Excel (From Microsoft Research)

 

Bueno, en esos dias en los que no tienes nada que hacer y encuentras un tool interesante, navegando y leyendo por ahi me encontre con un componente desarrollado por Microsoft Research en donde llevan toda la funcionalidad del Fuzzy Lookup de SQL Server Integration Services directamente a Excel.

Para descargarlo pueden ir a:

http://www.microsoft.com/download/en/details.aspx?id=15011

Ahora bien, la instalacion es supremamente simple, lo descomprimen y lanzan el archivo setup.exe, no es necesario tener Excel cerrado, ya que despues de la instalacion y al abrir excel, este lanza una ventana en donde pregunta si queremos instalar el Fuzzy lookup en nuestro excel, al final tendremos un nuevo menu en nuestro excel.

image

La utilizacion del componente es igualmente sencilla, simplemente damos clic en la pestaña y abrimos las opciones del mismo, estas se reducen a 1 opcion.

image

Damos clic en esta opcion y ya podremos trabajar con el componente, al dar clic alli se abre un menu al mejor estilo Smart Documents.

image

El componente esta en su primer version, aun no podemos hacer cosas como hacer lookup entre 2 libros distintos o contra una base de datos de forma nativa, sin embargo hay trucos para esto como una conexion de datos y demas.

Tampoco podemos hacerlo contra un segmento de datos, debe hacerse contra tablas directamente, para crear una tabla en excel y no complicarnos tanto la vida, simplemente llenen los datos en una hoja de datos normal y luego le aplican un formato de tabla, de esa manera lo pueden hacer de forma rapida y simple.

Yo cree rapidamente una tabla con 4 ciudades de Colombia

 

image

Ahora cree una tabla con las mismas ciudades pero con errores tipograficos y ortograficos.

image

Ahora simplemente lo que debemos hacer es seleccionar nuestras tablas, el orden si importa, normalmente vemos que a la izquierda va la tabla fuente o la tabla maestra, a la derecha normalmente va la tabla que se analizara, sin embargo este componente funciona al contrario, a la izquierda (Left) debemos seleccionar la tabla que contiene los datos que se analizaran, a la derecha debe ir la tabla maestra.

image

Ahora simplemente damos clic en Go.

Al dar clic el componente genera nuevas columnas en donde se devuelve la similitud con el dato de la siguiente manera

image

Esta similitud esta dada en porcentaje, asi que el numero mas cercano a 1 es el mas exacto.

Con esto pueden hacer luego un Vlookup y reemplazar los datos “Sucios” por los datos buenos.

Si tienen alguna duda dejenmelo saber a traves de los comentarios.

John

Friday, November 11, 2011

IT Camp

¡Participa en el IT Camp 2011 y {Actívate} como un IT Cloud Champ

Participa en el IT Camp 2011 y {Actívate} como un ID Cloud Champ


Conoce, aprende y prueba las tecnologías más robustas para tus implementaciones de Nube Privada:

1. Asiste a los Webcast:

- Miércoles 16 de Noviembre (6:30pm-8:30pm): Nube Privada, la evolución de los centros de cómputo

- Miércoles 23 de Noviembre (6:30pm-8:30pm): SQL Server 2012: Una nueva plataforma de base de datos lista para la nube

2. Asiste al IT Camp 2011:

Bogotá
Fecha: 6 de Diciembre
Lugar: Hotel RoyalPark Metrotel
Calle 74 No. 13 – 27

 

Hora Private Cloud SQL Server 2012
1:00PM – 2:00PM Registro Registro
2:00PM – 2:30PM Introduccion Introduccion
2:30PM – 3:45PM Laboratorio Parte 1 Laboratorio Parte 1
3:45PM – 4:15PM Refrigerio Refrigerio
4:15PM – 5:30PM Laboratorio Parte 2 Laboratorio Parte 2
5:30PM – 6:30PM Cierre del evento Cierre del evento

InnovaIT

 

Hey, el próximo 17 y 18 de Noviembre estaremos en Venezuela, hablaremos de.

  • Inteligencia de negocios en SQL Server 2008 R2
  • Oracle Exadata vs HP Enterprise Database Consolidation Appliance
  • Inteligencia de negocios en SQL Server 2012

Si estas en Venezuela, recuerda que puedes participar ingresando a http://www.microsoft.com/venezuela/innovait/

Nos vemos allá!

Saludos

Como aplicar un Service Pack o un Hotfix en un Cluster de SQL Server 2008 o 2008R2

 

Bien, hasta SQL Server 2005 el proceso se hacia aplicando los parches sobre el nodo activo, esto a partir de SQL Server 2008 cambio radicalmente, a partir de ahora y con el fin de disminuir los tiempos fuera de linea, el proceso se hace al reves, es decir.

  1. Ponga todos los recursos en uno de los nodos, al que llamaremos NODO1
  2. Vaya al nodo alterno (NODO2) y ejecute las actualizaciones
  3. Instale todas las actualizaciones en el NODO2
  4. Reinicie el NODO2
  5. Vaya al NODO1
  6. Mueva todos los servicios hacia el NODO2
  7. En el NODO1 ejecute e instale todas las actualizaciones
  8. Reinicie el NODO1
  9. Listo!! Smile

Saludos

Friday, October 28, 2011

Configurar autenticación mixta en SQL Server sin el Management Studio

 

Hace poco me encontré con un pequeño inconveniente, necesitaba cambiar el modelo de autenticación de un servidor de Windows a Mixta, sin embargo el cliente no tenía un SSMS y la verdad no había llevado mi maquina… así que tuve que buscar la forma de hacerlo a mano… es un poco riesgoso pero funciona a la perfección…

El proceso es simple, deben abrir el editor de registro (Háganlo bajo su propio riesgo)

 

1. Regedit.exe

image

2. Vayan a la carpeta

HKLM\Software\Microsoft\Microsoft SQL Server\MSSQL.1\MSSQLServer

3. Ahi veran la llave LoginMode

image

4. Editen la llave y en modo decimal cámbienlo de 1 a 2… 1 equivale a autenticación Windows, 2 equivale a autenticación Mixta

5. Reinicien el servicio de SQL Server (Recuerden, es bajo su propio riesgo)

Saludos

Tuesday, October 18, 2011

Como migrar usuarios y passwords desde SQL Server 2000 hacia SQL Server 2008 y 2008 R2

 

Hace poco en una migración me encontré con este dilema, típicamente usaba un script planteado por Msft que ayudaba en este proceso http://support.microsoft.com/kb/246133/en-us, sin embargo y por esas cosas del destino o del motor, este script no funcionó correctamente, acudí a la migración a través de SSIS, que nos permite a través de una tarea hacer transferencia de logins entre instancias de SQL Server, sin embargo no soy muy amante de ese tipo de soluciones y concluí que debía existir una opción adicional, que si SSIS podía, pues yo también podía por otro lado… la solución es bastante simple a decir verdad y tiene muchas menos líneas de código que el originalmente planteado por Msft, lo que si les puedo asegurar es que la migración fue exitosa.

Step by step

1. Migren los usuarios ANTES de migrar cualquier base de datos

2. Ejecuten el siguiente script en el SQL Server 2000 (Aun no he probado si funciona en 2005 o 2008)

select 'CREATE LOGIN [' + l.name + '] WITH PASSWORD = ', (CAST(l.password as varbinary(256))), ' HASHED, SID = ', CAST(l.sid as varbinary), ', CHECK_EXPIRATION=OFF, CHECK_POLICY=OFF ' + 'GO ' from master..syslogins l where l.isntname + l.isntgroup = 0

3. El resultado, cópienlo y péguenlo en el nuevo server (Para mi caso un SQL Server 208 R2)

4. Ejecuten el Script que tienen como resultado

Voila!… sus usuarios y passwords están migrados y a salvo!

LinkWithin

Related Posts Plugin for WordPress, Blogger...