Are you the publisher? Claim or contact us about this channel

Embed this content in your HTML


Report adult content:

click to rate:

Account: (login)

More Channels

Channel Catalog

Channel Description:

Resources for IT Professionals

older | 1 | .... | 861 | 862 | (Page 863) | 864 | 865 | .... | 889 | newer

    0 0

    Earlier this year, we enabled a new online capability, Digital Partner of Record (DPOR), which offers your customers a simple way to designate you as the Partner of Record for the subscriptions you are actively managing for customers for Office 365, CRM Online, Intune, Enterprise Mobility Suite (EMS), and Azure.

    Why is Digital Partner of Record important to you?

    This is the only way we can recognize you for the subscriptions you have deployed. It’s the way for you to earn Cloud incentives and qualify for Microsoft cloud competencies.

    It also enables reporting that provides a single view into the revenue, usage, and consumption you are driving. These insights can be leveraged by you for cross-sell/upsell opportunities, and allows you to proactively engage customers at risk for non-renewal.

    Your customers benefit because it provides you with access to performance and usage data so you can provide better service to them and help optimize their usage for the desired business outcome.

    What you need to do now

    1. Understand which of your customers have already designated you as their Partner of Record. You can find this information on the Cloud Services Dashboard
    2. Review the Digital Partner of Record Overview Deck, and customer guidance to understand how to position Digital Partner of Record with your customers
    3. Start working with your current customers to designate you as their Partner of Record for each subscription you actively manage, if they have not yet done so. You can find resources, including step-by-step guides and videos that can be used with your customers to help them designate you as their Partner of Record on the Microsoft Partner Network Portal


    Improving the Digital Partner of Record Experience

    Directly from Gavriella Schuster's latest blog on DPOR updates, there are new ways more partners can get recognized for their work with customers.

    However, as our industry changes and becomes more complex, creating partnerships is becoming more and more vital to many partners’ success, and ultimately toward delivering more customer value. When partners like you work together, you can do more, offer more to your customers, and continue to build your business, but there are currently limitations on the number of partners that can be the Partner of Record for a customer.

    In order to make it easier for you to build partner-to-partner relationships, we’re introducing new ways to help you get credit for the work you do with customers to help you grow your business in meaningful ways, even if you are not the Partner of Record.

    Through this expanded review process, you’ll be recognized for your performance through accelerated progress towards Cloud Competency qualification. Previously only the DPOR partner received credit toward the competency, but we think the performance of every partner involved on a cloud subscription matters and should be recognized.

    If you work on a cloud subscription but are not listed as the DPOR, data about your work from the following four sources will help you earn credit and qualify for the competency sooner: 

    • Microsoft Sales (for the transacting partner of Enterprise Agreements and Open licenses)

    • Commerce Platform (for CSP subscriptions)

    • FastTrack Onboarding Center

    • Delegated Admin Privileges (per workload)


    While we will continue to pay incentives only to one partner per subscription for deployment and lifecycle-related work, we will also continue to look into additional ways to recognize the other partners associated with a cloud subscription.

    If you need help from our support services regarding the following scenarios:

    • Having trouble with customer attaching you as Digital Partner of Record? Contact the Regional Service centre @ 180 676 7658

    • Need to view all your customer subscriptions? Go to Cloud Services Dashboard or contact Regional Service Centre at 1800 676 7658

    • Need to understand the benefits of the Cloud competencies? Read more here

    0 0

    Here is a quick example of how you can change the time zone of a site using CSOM with PowerShell, in this example I'll update a single site. Realistically you would only want to automate this if you had a large number of sites that you needed to change.

    Simple update the $Site variable (highlighted) and specify the time zone you would like to configure it to use (highlgihted). For a list of available time zones, execute $TZs (after running the first two blocks of the script!)

    #Add references to SharePoint client assemblies and authenticate to Office 365 site
    Add-Type -Path "C:\Program Files\Common Files\Microsoft Shared\Web Server Extensions\16\ISAPI\Microsoft.SharePoint.Client.dll"
    Add-Type -Path "C:\Program Files\Common Files\Microsoft Shared\Web Server Extensions\16\ISAPI\Microsoft.SharePoint.Client.Runtime.dll"

    #Authenticate to Site
    $Username = Read-Host -Prompt "Please enter your username"
    $Password = Read-Host -Prompt "Please enter your password" -AsSecureString
    $Site = ""
    $Context = New-Object Microsoft.SharePoint.Client.ClientContext($Site)
    $Creds = New-Object Microsoft.SharePoint.Client.SharePointOnlineCredentials($Username,$Password)
    $Context.Credentials = $Creds

    #Retrieve the time zones that are available
    $TZs = $Context.Web.RegionalSettings.TimeZones

    #Update the timezone
    $RegionalSettings = $Context.Web.RegionalSettings
    $TZ = $TZs | Where {$_.Description -eq "(UTC+13:00) Samoa"}
    $Update = $RegionalSettings.TimeZone = $TZ

    There are over a 100 to choose from (small selection below).

    Brendan Griffin - @brendankarl

    0 0

    On Thursday, March 24, 2016, we will hold the thirteenth Cloud Adoption Advisory Board (CAAB) webinar. CAAB webinars are one hour and consist of brief presentations followed by time for open feedback.

    The Skype for Business/Lync Meeting will open at 7:45 AM Pacific Daylight Time. The session will begin promptly at 8:00 AM and run to 9:00 AM. There will be time for questions during the session, and the speakers are usually available for a few minutes after the session if you have any additional questions.

    Here is the agenda:

    1. An overview of Azure Stack with Byron Hicks.


    Azure Stack (now in technical preview) brings the power of Azure to your datacenter. To prepare, read through this overview article and bring your questions.

    2. Step through the new Information Protection for Office 365 poster with Brenda Carter.


    To prepare, take a quick look at the PDF version of this new poster and bring your questions and feedback.

    3. Step through the new Skype for Business Voice Solutions poster.


    To prepare, take a quick look at the PDF version of this new poster and bring your questions and feedback.

    4. Discuss poster vs. tabloid formats with Denise Vangel.

    In revising the SharePoint 2013, Exchange 2013, and Lync 2013 Platform Options posters for their latest counterparts (SharePoint 2016, Exchange 2016, and Skype for Business 2015), we need your feedback on poster (33 X 44 inch) vs. multi-page tabloid (11 X 17 inch) format.

    To prepare, see the SharePoint 2013 Platform Options poster and the Change Management for Office 365 Clients model (an example of tabloid format).

    5. Step through the draft version of the upcoming Enterprise Hybrid Cloud for Enterprise Architects model with Joe Davies.


    This is a chance to provide your feedback on this model before it is completed and published. This model is part of the Microsoft Cloud for Enterprise Architects Series.

    Let us know if you have something to present in a future CAAB webinar at

    Thanks and we'll see you on the 24th!


    Note: By participating in this webinar you agree that Microsoft may record and use this session for internal purposes only.


    To receive an invitation to a CAAB Webinar, you must be a CAAB member. To join the CAAB, become a member of the CAAB group of the Office 365 Yammer network and send a quick email to to introduce yourself. Please feel free to include any information you want about your experience in creating cloud-based solutions with Microsoft products or areas of interest. Join now and add your voice to the cloud adoption discussion that is happening across Microsoft and the industry.

    0 0

    Existen diversos métodos de enseñanza- aprendizaje que han probado su eficacia de manera tradicional en las aulas. Dichas formas de impartir conocimiento se refuerzan con el uso de las tecnologías, sobre todo con aquellas en las que el alumno está inmerso, colabora y explora. Para los estudiantes, estas experiencias estimulan el desarrollo de las habilidades esenciales para la vida, como la comunicación, la colaboración, el pensamiento crítico y la creatividad. El objetivo es animar a los estudiantes...(read more)

    0 0
  • 03/16/16--15:13: Create your own VM images
  • (deutsche Version hier)

    Azure provides a variety of images for new VMs (currently more than 800). But sometimes you may want to use your own image for new VMs. It could be for example that a desired image is yet not available in the Microsoft Cloud Germany, and you don’t want to wait and are looking for a way...

    Now, a word of caution here: clearly you can do that, but for a productive use in the Microsoft Cloud Germany please rely on an officially published image. This here is only for warming up…

    We take as an example an Ubuntu image, and since we don't have our own, we take the one provided in the public Azure Cloud and pretend that we did all the adjustments  we need...

    How do we proceed? The rough sequence is:

    1. Create new Ubuntu VM in the public Azure Cloud
    2. prepare for imaging
    3. copy VHD to the Microsoft Cloud Germany
    4. create new Ubuntu VM in the Microsoft Cloud Germany

    Here we go:

    Create new Ubuntu VM in the public cloud

    We create a classic VM with a service, the following one-liner should be clear, or? The used image can vary, I took version 12.4.5:

    New-AzureQuickVM -Linux -Name "ubuntu-image" -Servicename "ubuntu-service"
         -Imagename $image –Linuxuser "superman" -Password "P@ssw0rd!"
         -Location "West Europe" -Instancesize Small

    Prepare image

    We login to the VM once using SSH, finding the address is easy:

    $vm=Get-AzureVM -Name "ubuntu-image" -Servicename "ubuntu-service"
    $vm | Get-AzureEndpoint

    Use the information for VIP and port. Of course it makes sense to wait until the VM started completely. After the login, we do the deprovisioning:

    sudo waagent –deprovision
    sudo init 0

    and our connection is gone. Now we are using the following commands to remove the VM and get a free blob, because Azure treats the VHD as a disc, so we first delete the VM (without deleting the VHD of course), and after that we delete the disc, which will leave us with a simple blob. We need the disc name for this, and luckily we have stored all necessary information in the $vm object (see above)

    $diskname = $vm.VM.OSVirtualHardDisk.DiskName
    $vm | Stop-AzureVM
    $vm | Remove-AzureVM
    Remove-AzureDisk –DiskName $diskname

    Please remember to remove the VM, but without –DeleteVHD, that would be stupid now...

    Copy VHD

    We have now a blob containing a VHD, and we copy it over to our new environment. You can use a tool like the CloudBerry storage Explorer that can copy directly between clouds.

    A little remark: Blobs can’t be renamed, but you can do a copy and delete. To save time you should provide the new name as target already.

    Prepare image

    Now we will register the copied blob as an image to be able to use it for new VMs. We already did the main work. For now, we first collect all necessary information. We will assume the new StorageAccount is called "germany1", the container is called "images", and the BLOB is called "ubuntu-2016-v1.vhd". Of course you can choose different names…:


    $context=New-AzureStorageContext -StorageAccountName $storage
    -StorageAccountKey (Get-AzureStorageKey -StorageAccountName $storage).Primary

    $blob=Get-AzureStorageBlob -Context $context -Container $container -Blob $vhd
    $uri = ($blob.ICloudBlob).Uri.AbsoluteUri

    Now here comes the magic part:

    Add-AzureVMImage -Imagename $blob.Name -RecommendedVMSize Small -OS Linux -MediaLocation $uri

    and we see our new image in the list of available images:

    Get-AzureVMImage | select Label,ImageName

    Use image

    We can now use it as an image when provisioning a new VM. This is nearly the same command as in the beginning of this article, only the image name has changed (and the location of course).

    New-AzureQuickVM -Linux -Name "ubuntu-image" -Servicename "ubuntu-service"
         -Imagename $image –Linuxuser "superman" -Password "P@ssw0rd!"
         -Location "Germany Central" -Instancesize Small

    Congratulations! You just created a new VM based on a self-made image. Wasn’t so hard, was it?

    0 0
  • 03/16/16--15:22: Eigene VM Images erzeugen
  • (english version see here)

    Azure bietet eine Vielzahl an Images für neue VMs (aktuell mehr als 800). Aber manchmal möchte man dann vielleicht doch ein eigenes Image für neue VMs verwenden. Ganz aktuell könnte es zum Beispiel sein, dass ein Wunsch-Image noch nicht in der Microsoft Cloud Deutschland zur Verfügung steht, und man echt nicht mehr warten möchte und unbedingt schon mal anfangen will und nach einem Weg sucht… Nun, ein Wort der Warnung ist hier angebracht: Klar kann man das machen, aber für einen produktiven Einsatz bitte unbedingt auf einem freigegebenen Image in der Microsoft Cloud Deutschland aufsetzen. Das hier ist nur zum warm werden…

    Wir nehmen als Beispiel ein Ubuntu-Image, und da wir kein eigenes haben, nehmen wir das in der Public Azure Cloud bereitgestellte und tun so, als ob wir das angepasst haben und in der Microsoft Cloud Deutschland verwenden möchten…

    Wie gehen wir vor? Die grobe Abfolge ist:

    1. Neue Ubuntu-VM in der Public Azure Cloud erzeugen
    2. für das Image vorbereiten
    3. VHD kopieren in die Microsoft Cloud Deutschland
    4. neue Ubuntu-VM in Microsoft Cloud Deutschland erzeugen

    Dann mal los:

    Neue Ubuntu-VM in der Public Cloud erzeugen

    Wir erzeugen uns eine klassische VM mit einem Service, der folgende Einzeiler sollte klar sein, oder? Das verwendete Image kann ja variieren, ich hab mal 12.4.5 genommen:

    New-AzureQuickVM -Linux -Name "ubuntu-image" -Servicename "ubuntu-service"
         -Imagename $image –Linuxuser "superman" -Password "P@ssw0rd!"
         -Location "West Europe" -Instancesize Small

    Image vorbereiten

    Wir loggen uns einmal per SSH ein, die Adresse finden wir über die folgenden Zeilen:

    $vm=Get-AzureVM -Name "ubuntu-image" -Servicename "ubuntu-service"
    $vm | Get-AzureEndpoint

    …und nutzen hierbei die Angaben bei Vip und Port. Sinn macht’s natürlich auch, zu warten, bis die VM fertig gestartet ist. Kaum sind wir angemeldet, bereiten wir die VM auf ihr Image-Dasein vor:

    sudo waagent –deprovision
    sudo init 0

    und schon ist unsere Verbindung wieder weg. Jetzt die folgenden Kommandos, um die VM wieder zu entfernen und den Blob freizubekommen. Azure betrachtet das VHD-Blob als OS-Disk, und um diese AzureDisk zu entfernen, brauchen wir den Namen. Den bekommen wir einfacher, solange die VM noch existiert, wir haben ja weiter oben zum Glück die VM im $vm-Objekt gespeichert.

    $diskname = $vm.VM.OSVirtualHardDisk.DiskName
    $vm | Stop-AzureVM
    $vm | Remove-AzureVM
    Remove-AzureDisk –DiskName $diskname

    Bitte dran denken, die VM zu entfernen, aber nicht das VHD-Blob, also auf keinen Fall –DeleteVHD anhängen, das wäre jetzt blöd.

    VHD kopieren

    Wir haben jetzt also noch ein Blob übrig mit der VHD, und das kopieren wir rüber in unsere neue Umgebung. Wie das geht, kann man entweder in meinem entsprechenden Blogartikel nachlesen, oder man verwendet ein Tool wie den CloudBerry Storage Explorer, der auch direkt zwischen Clouds kopieren kann. Ich überspringe das jetzt mal der Einfachheit halber und beschränke mich auf Stichpunkte:

    • StorageKey des alten und des neuen StorageAccounts ermitteln
    • StorageContext für die alte und für die neue Umgebung erzeugen
    • Container und Name der alten Umgebung ermitteln
    • Container der neuen Umgebung anlegen
    • Name für das neue Blob ausdenken
    • Start-CopyAzureStorageBlob verwenden

    Noch ein kleiner Hinweis: Blobs können eigentlich nicht umbenannt werden, sondern das ist ein Kopieren und Löschen. Man spart sich also Arbeit, wenn man gleich auf den neuen Namen kopiert, wenn man eh schon am Kopieren ist…

    Image erzeugen

    Jetzt kommen wir zum eigentlichen Punkt, nämlich das kopierte VHD-Blob als Image anzulegen, um es für neue VMs verwenden zu können. Die Vorarbeit haben wir ja schon gemacht, nämlich das Deprovisioning. Das komplizierte ist jetzt nur noch, alle erforderlichen Angaben zusammen zu bekommen.

    Für unser Beispiel hier nehmen wir mal an, das neue StorageAccount heißt “germany1”, der Container heißt “images”, und das Blob heißt “ubuntu-2016-v1.vhd”. Das wird natürlich was anderes sein, aber diese Angaben sind alle beim Kopieren der VM angefallen und sollten also bekannt sein. Wir erzeugen uns einen Context (sofern der nicht vom Kopieren noch vorhanden ist) und ermitteln alle restlichen Informationen:


    $context=New-AzureStorageContext -StorageAccountName $storage
        -StorageAccountKey (Get-AzureStorageKey -StorageAccountName $storage).Primary

    $blob=Get-AzureStorageBlob -Context $context -Container $container -Blob $vhd
    $uri = ($blob.ICloudBlob).Uri.AbsoluteUri


    Dann kommt die eigentliche Magie:

    Add-AzureVMImage -Imagename $blob.Name -RecommendedVMSize Small -OS Linux -MediaLocation $uri

    und schon sehen wir unser neues Image in der Liste der verfügbaren Images:

    Get-AzureVMImage | select Label,ImageName

    Image verwenden

    Das können wir jetzt wie eine von Azure bereitgestellte Imagedatei verwenden, also eigentlich wie zu Beginn dieses Artikels, nur die erste Zeile hat jetzt unseren neuen Imagenamen (und die Location ist angepasst):

    New-AzureQuickVM -Linux -Name "ubuntu-image" -Servicename "ubuntu-service"
         -Imagename $image –Linuxuser "superman" -Password "P@ssw0rd!"
         -Location "Germany Central" -Instancesize Small

    Herzlichen Glückwunsch! Wir haben gerade eine VM erzeugt, die auf einem selbstgemachten Image basiert. War doch gar nicht so schwer, oder?

    0 0

    こんにちは、System Center サポート部の濱中です。


    Data Protection Manager (DPM) サーバーにおいて、volsnap: 87 もしくは、volsnap: 93 などのエラーが発生し、"レプリカ ボリューム" がオフラインとなったというイベントが記録されることがあります。また、この事象が発生すると、直後に"トランザクション ログへのデータのフラッシュに失敗しました。" というメッセージとともに、NTFS: 140 のエラーが発生することがあります。


    このエラーは、バックアップ ジョブの実行中にレプリカ (バックアップ データ) の変更履歴を保存している"回復ポイント ボリューム" の容量が不足してしまったために、DPM がバックアップを継続することができず、これまでのレプリカの変更履歴を守るために強制的にレプリカ ボリュームをオフラインとすることに起因します。

    なお、オフラインとされたレプリカ ボリュームは、その後、すぐに DPM により自動的にオンラインに戻されますが、このオフライン動作の際に、その時点で実行されていたバックアップ ジョブは失敗し、転送されてきたデータはレプリカに反映されないまま失われます。

    そのため、回復ポイント ボリュームを拡張して空き領域を確保した後、整合性チェックを実行してバックアップをやり直す必要があります。


    このような事象が発生した場合には、DPM の管理者コンソールで空き容量が不足している回復ポイントボリュームが無いかどうかを確認してください。DPM "自動拡張" の機能が有効となっている場合には DPM が既に空き容量を追加している場合がございますが、念のため、十分な空き容量が確保されているかご確認下さい。確認の結果、なおも空き容量が不足していた場合には、回復ポイントボリュームを拡張して下さい。


    なお、この事象が発生したことによりバックアップに失敗した保護メンバーが無いかどうかを確認することにより、拡張が必要な回復ポイント ボリュームを見つけることができます。回復ポイントボリュームの拡張方法は以下の通りです。



    - 回復ポイント ボリュームの拡張方法について


    1. DPM の管理者コンソールを開きます
    ※ バックアップが失敗し続けている場合には [状態] "NG" となっています。
    下部の [詳細] の画面より、[ディスクの割り当て] の項目を確認し、回復ポイントボリュームの"割り当て済み" の容量と"使用" の容量から、空き容量が十分にあるかどうか確認します。
    空き容量が不足している場合には、上部画面に戻り、保護メンバーを右クリックして [ディスク割り当ての変更] を選択します。
    5. [
    ディスクの割り当ての変更] 画面から、回復ポイントボリューム配下の欄にて割り当てる容量を入力し、[OK] をクリックします。
    ※ 追加する容量ではなく、追加後の合計容量を入力してください。保護を実施する為に十分な容量を追加して下さい。





    - 補足


    a. volsnap のエラーについて


    上記の volsnap のエラーは"回復ポイント ボリューム" () への書き込みが失敗した為に、OS Volume ShadowCopy サービス (VSS) がレプリカ ボリューム () をオフラインとしたことを意味するイベントです。(volsnap VSS のドライバーです)

    この動作は DPM ではなく、OS のサービスである VSS により行われますが、このエラーは DPM "レプリカ ボリューム" VSS "ShadowCopy Protection モード" ()と呼ばれる特殊なモードを使用するよう設定することに起因しています。このモードが使用されるよう構成されておりますと、レプリカ ボリュームから回復ポイント ボリュームへの連携ができない状況下でレプリカ ボリュームに対する何らかのアクセスが発生致しますと、VSS サービスは OS からレプリカ ボリュームを切り離してオフラインとし、当該のエラーが発生致します。


    これらの 回復ポイント ボリューム、レプリカ ボリューム、ShadowCopy Protection モードの詳細につきましては、以下の内容をご参照ください。



    b. 回復ポイント ボリュームとレプリカ ボリュームについて


    DPM はバックアップデータ ("レプリカ" と呼ばれます) をレプリカ ボリュームと呼ばれる領域に保管します。また、レプリカの変更履歴を回復ポイント ボリュームと呼ばれる領域に保存しています。


    回復ポイント ボリュームはレプリカ ボリュームのシャドウコピーの記憶域として構成されており、レプリカボリューム内のレプリカの変更履歴を回復ポイントボリュームに移動して保管する動作は VSS の機能を利用して実装されています。

    OS 既定では、シャドウコピーの記憶域は VSS が有効にされているボリュームと同じボリューム内に確保されますが、DPM の場合には、専用のボリュームを用意してシャドウコピーの記憶域に割り当てています。


    DPM はこのレプリカ ボリュームと回復ポイント ボリュームを 1 つの保護対象ごとに 1 セットずつ用意しています。



    c. DPM のバックアップ動作について


    DPM はバックアップの際に、DPM サーバーに保護対象のデータを転送し、レプリカにそのデータを上書きします。その結果、同期が終了した時点でレプリカと保護対象のデータは同一となりますので、レプリカは保護対象のバックアップ データとして機能します。


    しかしながら、そのまま上書きされてしまいますと、過去のバックアップ データが消去されて失われてしまう為、過去の任意の時点にリストアするという機能を実現することができません。そのため DPM VSS Copy On Write という機能を利用して、上書きされる直前にシャドウコピーの記憶域 (つまり、回復ポイント ボリューム) に上書き対象のデータを退避し、回復ポイントのデータとして保管します。

    その結果、現時点での保護対象のコピーであるレプリカを起点とし、レプリカの変更を時系列に対して遡る履歴データ(つまり、回復ポイントの差分形式での履歴データ)が作成され、レプリカを起点に、この履歴データを遡って利用することで、DPM は保護対象の任意の回復ポイントのデータをリストアすることが可能となります。



    d. ShadowCopy Protection モードについて


    DPM サーバーに限らず、通常の Windows Server のボリュームでも VSS の過去の履歴を保存する機能を利用することができます。ただし、通常は VSS はシャドウコピーの記憶域が一杯となり書き込めなくなりますと、シャドウコピーの記憶域のデータ (回復ポイント) を削除して記憶域を解放する動作を行います。その結果、過去の回復ポイントが失われます。


    そのため、DPM ではこのような動作が行われないように、VSS ShadowCopy Protection モードと呼ばれる特殊なモードを使用するようにレプリカ ボリュームを設定いたします。このモードでボリュームを構成いたしますと、シャドウコピーの記憶域 (回復ポイント ボリューム) に書き込みができない場合には、VSS は回復ポイントを削除するのではなく、レプリカ ボリュームをオフラインとして、レプリカへの書き込みを中断させます。


    その結果、過去の回復ポイントのデータは保護されますが、その代りとして、上記の volsnap NTFS のエラーが発生し、また、実行中のバックアップが失敗します。その後、DPM はレプリカ ボリュームを自動的にオンラインに戻しますが、この事象が再発することを防ぐためには、次回のバックアップまでに回復ポイント ボリュームを拡張し、空き領域を確保することが必要となります。


    なお、DPM "自動拡張" の機能が有効にされている環境では、このエラーが発生した直後に DPM が既に空き容量を追加している場合がありますが、念のため、十分な空き容量が確保されていることをご確認下さい。


    0 0

    いつも Exchange Server をご利用いただきありがとうございます。
    最近では多くのお客様でオンプレミス Exchange Server  (OnPrem Exchange)から Office 365 Exchange Online (EXO) への移行が進められており、移行関連のお問い合わも増えております。 OnPrem Exchange と EXO  のハイブリッド構成を組んで移行されるお客様ではハイブリッド構成に特化したトラブルも多くお寄せ頂いた頂いており、ハイブリッド環境のトラブルシューティング方法を以下のブログとして公開しておりおます。
    Title: ハイブリッド構成について ~ まとめ編 ~
    上記のブログでも紹介しておりますが、ハイブリッド環境を構築する場合は、OnPrem Exchange にてハイブリッド構成ウィザードを実行することで自動的にハイブリッド構成に必要な設定が行えるため、非常に便利です。ただしお客様の利用用途としては OnPrem Exchange と EXO (または別の OnPrem Exchange ) がそれぞれ別の Exchange 組織である場合はハイブリッド構成ウィザードによる自動設定が適切ではないシナリオがあります。このような場合に、OnPrem Exchange と EXO (または別の OnPrem Exchange ) とで空き時時間参照や予定表参照を実現した場合は、どのようにするのでしょうか?ハイブリッド構成ウィザードが実行できないので、手動で設定する必要があるのですが、その手順は公開されているのですが、一つの手順として纏まっていなく設定方法に苦慮します。
    そのため今回のブログではハイブリッド構成ウィザードを実行せずに、OnPrem Exchange と EXO (または別の OnPrem Exchange ) との間で空き時間参照や予定表参照を実現したい場合の手順やそもそもの空き時間参照や予定表参照がどういった機能なのかについて紹介させて頂きます。
    2 種類の共有機能について
    まずはじめに空き時間情報の共有と予定表の共有はそれぞれ参照方法が全く異なっており、空き時間情報の共有は 組織の関係ベースの予定表参照そして予定表の共有は共有ポリシー ベースの予定表参照となります。Outlook 2013 でのそれぞれの利用方法は以下となりますが、それぞれの機能ごとの説明と参照フローを後述に解説します。
    a) 空き時間情報の共有
    Outlook 2013 からスケジュール アシスタントを使用する
    ビデオ: スケジュール アシスタントを使う
    b) 予定表の共有
    Outlook 2013 から予定表共有を依頼する電子メール メッセージを送受信する
    Title: 他のユーザーの Exchange 予定表を開く
    組織の関係ベースの予定表参照は、Azure Active Directory 認証システムとフェデレーション信頼を結んだ 2 つの Exchange 組織間での共有を構成することで予定表の空き時間情報を共有する機能となります。
    組織の関係において設定可能な共有する空き時間情報のレベルは、以下の 2 つです。
    また組織の関係で許可した予定表の空き時間情報は、既定で作成される予定表のアクセス権限の 1 つである [既定] の権限に基づいてクロスプレミス (Exchange 組織を跨ぐ)で参照されます。
    Exchange 組織 A
    ExchSrvA ->Exchange サーバー
    MBX_A ->メールボックス
    Exchange 組織 B
    ExchSrvB ->Exchange サーバー
    MBX_B ->メールボックス
    Outlook 2013
    1. Outlook 2013 から MBX_A から MBX_B に対して空き時間情報を取得するための EWS リクエスト(F/B リクエスト) を ExchSrvA に対して送信します。
    2. ExchSrvA が Azure Active Directory 認証システム (旧 MFG) に対して代理トークン リクエストを送信します。
    3. ExchSrvA が 2 にてリクエストしたトークンを取得します。
    4. ExchSrvA がExchange 組織 Aの組織の関係の DomainNames プロパティに 1 が定義されている場合、TargetAutodiscoverEpr プロパティに定義されている URL に対して Autodiscover を実行し、Exchange 組織 B で定義されている EWS の ExternalUrl を取得します。
    5. 2 にてリクエストしたトークンと共に 4 で取得した EWS の ExernalURL (ExchSrvB) に対して F/B リクエストを送信します。
    6. ExchSrvB がExchange 組織 B の組織の関係の設定を照合し、問題なければ MBX_B  の空き時間情報(注)を ExchSrvA  へ返します。
    7.MBX_A は MBX_B の予定表情報を確認できます。
    1. 上記の参照フローにおける組織間での EWS 接続時に WS-Security (Web サービス セキュリティ) 認証が使用されます。既定では EWS 仮想ディレクトリでは WS-Security  認証が有効 (WSSecurityAuthentication がTrue) ですが、認証に関する問題がある場合は EWS 仮想ディレクトリで WS-Security  認証が有効かどうか確認下さい。
    2. 時間、件名、場所を含む予定表の空き時間情報を参照したい場合は、組織の関係で "時間、件名、場所を含む予定表の空き時間情報" をチェックし、かつ参照先のメールボックスの予定表フォルダーの既定の対する権限を "空き時間、件名、場所" に対する読み取り権限(LimitedDetails) を有効にする必要があります。既定では空き時間情報のみ (AvailabilityOnly) のため、空き時間のみしか取得できません。
    3. 参照先の別組織のユーザーに紐づくメール連絡先またはメール ユーザーが自組織上に作成されている場合は、上述の参照フローの 1 では参照先オブジェクトの TargetAddress 属性に定義されている SMTP アドレスを元に F/B リクエストを送付します。一方該当するメール連絡先またはメール ユーザーが作成されておらず、SMTP アドレスを直接入力する場合は、入力した SMTP アドレスを元に F/B リクエストを送付します。
    共有ポリシー ベースの予定表参照
    共有ポリシーにおいて設定可能な共有する予定表の情報のレベルは、以下の 3 つです。
    共有ポリシー ベースの予定表参照を実施する際には、Outlook または OWA から予定表の共有依頼メッセージを送付する必要がございます。
    予定表の共有依頼メッセージを送信すると予定表の公開先ユーザーに対して指定したアクセス権設定が追加されます。指定したアクセス権限に応じて、クロスプレミス (Exchange 組織を跨ぐ)で予定表情報の参照が可能となります。
    - 参考情報
    Title : 共有ポリシー
    Url :
    参照元組織の Exchange サーバー上のメールボックス アシスタンス サービスによって参照先組織の Exchange サーバーに対して予定表を情報取得するため、上述の組織の関係ベースの予定表参照のフローと大きく異なります。

    組織の関係ベースの予定表参照と共有ポリシー ベースの予定表参照を実現するための設定方法について以下にご案内します。
    1. 各 Exchange 組織の名前解決の構成
    2. フェデレーション信頼の構成
    3. 組織の関係の作成
    4. 共有ポリシーの作成
    5. 共有ポリシーの適用
    1. 各 Exchange 組織の名前解決の構成
    組織間で空き時間情報・予定表を共有する際に、以下の 2 つの種類の HTTP(S) リクエストが到達することが必要となります。
    ・自動検出 (Autodiscover)
    自動検出には、"autodiscover.<ドメイン名>" の名前が使用されます。
    また、EWS のエンドポイントには、WebServicesVirtualDirectory の ExternalUrl に定義された URL が使用されます。
    それぞれの名前の HTTP リクエストが Exchange 2013 CAS サーバー に最終的に到達出来るよう、お客様の構成にあわせて名前解決の設定行います。
    また、EWS のエンドポイントを定義していない場合は、Exchange 2013サーバーの Exchange 管理シェルより以下のコマンドで定義してください。
      Set-WebServicesVirtualDirectory -Identity [仮想ディレクトリ名] -ExternalUrl [URL]
    また Exchange 2013 サーバーからフェデレーション信頼の確認のために、インターネットへのアクセスが必要となります。
    その際に、プロキシー サーバーを経由する構成となっている場合には、Exchange 2013サーバーの Exchange 管理シェルより以下のようにプロキシー サーバーの情報を各 Exchange サーバーに対して実施します。
      Set-ExchangeServer -Identity [対象のサーバー名] -InternetWebProxy [プロキシー サーバーの URL]
    ・フェデレーション信頼の設定に関係なくExchange サーバーからインターネット接続が必要でかつプロキシー サーバーを経由してインターネット接続する構成の場合は、上述のSet-ExchangeServer  コマンドの InternetWebProxy パラメターターにてプロキシー サーバーの URL を設定する必要があります。
    ・自動検出 (Autodiscover) や EWS 通信が Exchange 組織間で正しく行われるには上記の設定に加え、各 Exchange 組織にて外部公開している Exchange サーバーに公的証明書機関から発行された証明書がインストールされていることが前提となります。
    Title: デジタル証明書と SSL
    2. フェデレーション信頼の構成
    以下の公開情報に従ってExchange 2013 組織間でフェデレーション信頼を構成します。
    Title: フェデレーション信頼の構成
    フェデレーション信頼を確立するためには、外部 DNS サーバーに TXT レコードを追加する必要があり、DNS レコードが他の 外部 DNS サーバーに反映されるまでに暫く時間がかかることがあります。
    3. 組織の関係の作成
    組織の関係ベースの予定表参照を実現するには 社内組織の Exchange 2013 サーバーで、Exchange 管理センター (EAC) を使用して組織の関係を作成します。
    1. [組織] > [共有] に移動します。
    2. [組織の共有] で、[新規作成][追加] アイコン をクリックします。
    3. [組織上の関係の新規作成] の [関係の名前] ボックスに、組織上の関係のわかりやすい名前を入力します。
    4. [共有するドメイン] ボックスに、予定表の表示を許可する社内の Exchange 組織のフェデレーション ドメインまたはフェデレーション サブドメインを入力します。外部組織の複数のドメインを入力する必要がある場合は、ドメインをコンマで区切ります。たとえば、、 のようにします。
    5.リストしたドメインとの予定表の共有を有効にするには、[予定表の空き時間情報の共有を有効にする] チェック ボックスをオンにします。予定表の空き時間情報の共有レベルを設定し、予定表の空き時間情報を共有できるユーザーを設定します。
    空き時間情報のアクセス レベルを設定するには、次のいずれかを選択します。
    ・ [時刻のみを指定して予定表の空き時間情報にアクセス]
    ・ [予定表の空き時間情報のうち、空き時間、件名、場所情報へのアクセス]
    ・ 組織内の全員
    ・ [指定したセキュリティ グループ]
    セキュリティ グループを指定するには [参照] をクリックします。
    6. [保存] をクリックして組織上の関係を作成します。
    Title: 組織の関係を作成する
    4. 共有ポリシーの作成
    共有ポリシー ベースの予定表参照を実現するには共有ポリシーが適切に構成されいるかどうか重要です。
    共有ポリシーは、Exchange 管理センター (EAC) や Exchange 管理シェルから新たに作成することが可能ですが、既定で "Default Sharing Policy" という名前のポリシーが作成されております。
    既定のポリシーを変更してご利用頂く場合は、新規作成を頂く必要はございません。新規に EAC から社内組織の Exchange 2013 サーバーで共有ポリシーを作成する場合は、以下の手順を実施します。
    1.[組織] > [共有] に移動します。
    2.リスト ビューの [個別共有] で、[新規作成][追加] アイコン をクリックします。
    3. [共有ポリシーの新規作成] で、[ポリシー名] ボックスに共有ポリシーのフレンドリ名を入力します。
    4. [追加] [追加] アイコン をクリックして、共有ポリシーの共有ルールを指定します。
    5. [共有ルール] で、次のいずれかのオプションを選択して、共有するドメインを指定します。
    ・ [すべてのドメインと共有]
    ・ [特定のドメインと共有]
    6. [特定のドメインと共有] を選択した場合は、共有するドメインの名前を入力します。この共有ポリシーに複数のドメインを入力する必要がある場合は、最初のドメインの設定を保存してから、共有ルールを編集してさらにドメインを追加します。
    7. ポリシーに対して強制する予定表の共有レベルを定義するには、[予定表フォルダーを共有する] チェック ボックスをオンにし、次のいずれかのオプションを選択します。
    ・ [時刻のみを指定して予定表の空き時間情報にアクセス]
    ・ [時刻、件名、場所、役職などの予定表のすべての予定情報]
    8. 共有ポリシーのルールを設定するには、[保存]をクリックします。
    9.この共有ポリシーを Exchange 組織におけるユーザーの既定の共有ポリシーにする場合は、[このポリシーを既定の共有ポリシーにする] チェック ボックスをオンにします。
    10. 共有ポリシーを作成するには、[保存] をクリックします。
    Title: 共有ポリシーの作成
    5. 共有ポリシーの適用
    既定の "Default Sharing Policy" のみを使用する場合は、既定で各メールボックスは "Default Sharing Policy" を利用するよう設定がされているため、明示的に共有ポリシーを適用する必要はありません。
    新規に共有ポリシーを作成した場合は、Set-Mailbox コマンドを用いて各メールボックスと作成した共有ポリシーを関連づける必要がありますので、EAC から社内組織の Exchange 2013サーバーで、作成した共有ポリシーをメールボックスに適用する場合は、以下の手順を実施します。
    1. [受信者] > [メールボックス] に移動します。
    2.リスト ビューで、Ctrl キーを押しながら複数のメールボックスを選択します。
    3.詳細ウィンドウでは、メールボックスのプロパティが構成されて一括編集されます。[その他のオプション] をクリックします。
    4. [共有ポリシー] で、[更新] をクリックします。
    5. [共有ポリシーの一括割り当て] で、[共有ポリシーを選択します] リストを使用してメールボックスに割り当てる共有ポリシーを選択します。
    6. [保存] をクリックして、選択したメールボックスに共有ポリシーを適用します。
    Title: メールボックスに共有ポリシーを適用する

    長文になりましたが、以上がハイブリッド構成ウィザードを実行せずに、OnPrem Exchange と EXO (または別の OnPrem Exchange) とで空き時間参照や予定表参照を実現する方法となります。結構複雑という印象を持たれた方もいるかもしれませんが、空き時間参照や予定表参照の違いやそれぞれの設定手順を把握することでトラブル シューティングする場合は非常に役に立つと思います。
    今後も OnPrem Exchange と EXO を連携した機能に関する情報をお知らせできればと思いますので、今後とも当ブログをどうぞ宜しくお願いします。

    0 0

    Many system administrator monitor their Active Directory infrastructure via tools such as SCOM, Event viewer, Performance monitor or even third party application monitors. When the requirement of the Active Directory infrastructure is to grow to meet certain demands, so to grows the cost and effort put forward to monitor the newly increased AD infrastructure. This becomes more complex in a hybrid infrastructure deployment. Enabling Azure AD integration with on-premises AD provides a reliable and...(read more)

    0 0

    2016/2/10 (米国日付 2016/2/9) にリリースされた Office 2013 の更新プログラム KB3114717 (英語日本語機械翻訳) を適用すると Outlook Word などの Office プログラムを利用している際に CPU 使用率が高い・動作が遅い・応答なしになるなどの不具合が発生することが確認されたため、弊社では以下のように配信停止と再リリースで対応いたしました。


    クイック実行版の Office (Office 365 ProPlus や店頭で購入したダウンロード版など) :

    配信を停止。2016/2/15 (米国日付 2016/2/14) に再リリース
       (適用されている場合は [ファイル] タブ-[Office アカウント] に
      「バージョン: 15.0.4797.1002」と表示される)

    MSI 版の Office (ボリュームライセンス版の Office など) :

    配信を停止。翌月 2016/3 の更新プログラム KB3114816 (英語日本語機械翻訳) で修正

       (適用されている場合は [ファイル] タブ-[Office アカウント]-[Outlook のバージョン情報] を
       クリックした画面の MSO の右側に「15.0.4797.1000」と表示される)


    弊社では更新プログラムによって新たな不具合が発生しないよう配慮してリリースを行っておりますが、新たな不具合が確認される場合があり、Office 製品をご利用のみなさまに多大なご迷惑をおかけしておりますことを心よりお詫び申し上げます。

    上記のの現象が発生していて KB3114717 が適用されていることが疑われる場合、
    Office 製品を更新する前に事前に問題がないかを確認したい場合は、



    Office 更新プログラムを適用して発生する問題の対処 (更新プログラムが再リリースされているかや既知の不具合がないかを確認する方法)


    KB3114717 (英語日本語機械翻訳) のページでは、この不具合について以下のように説明しています。


    0 0

    弊社では毎月米国日付の第 2 火曜に更新プログラムをリリースし、不具合修正やセキュリティ脆弱性への修正を行っています。更新プログラムの適用によって新たな不具合が発生しないよう配慮してリリースを行ってますが、大変申し訳ございませんが更新プログラムを適用することによって新たな不具合が発生する場合があることを確認しております。Office 製品の更新プログラムに不具合が確認された場合は、弊社では以下の方法で対応しています。

    クイック実行版の Office (Office 365 ProPlus など) :
    配信を停止。サポート技術情報 (KB) に配信停止と不具合についての説明を追記。数日後に再リリース。

    MSI 版の Office (ボリュームライセンスなど) :
    配信を停止 (ダウンロードページのダウンロードが中止され、Microsoft Update や WSUS からの配信が停止)。
    KB に配信停止と不具合についての説明を追記。
    数日後に Hotfix として再リリース (Microsoft Update や WSUS からは配信されない) または翌月の更新プログラムに含めてリリース。

    配信は継続。KB に不具合についての説明を追記 (日本語環境や全角文字固有の問題の場合はブログで公開)。


    クイック実行版の Office (Office 365 ProPlus など) :
    ただちに更新したい場合は [ファイル] タブ-[Office アカウント]-[今すぐ更新] から行う。

    MSI 版の Office (ボリュームライセンスなど) :
    毎月の更新プログラムとして再リリースされて自動更新を有効にしている場合は、自動的に Microsoft Update/WSUS/SCCM  によって適用され解消される。
    自動更新を有効にしていない場合や、毎月の更新プログラムではなく HotFixとしてリリースされている場合は、該当の更新プログラムの KB のサイトからダウンロードして適用する。

    弊社では WSUS サポートチームのブログ Outlook サポートチームのブログなどから
    Office 製品の更新プログラムを適用したことによって問題が発生したことが疑われる場合や、
    Office 製品を更新する前に事前に問題がないかを確認したい場合は


    クイック実行版の Office (Office 365 ProPlus など) :
    KB2770432 (英語日本語機械翻訳) の手順を参考にして以前のバージョンに戻す 
    コントロール パネルの [プログラムの機能] からアンインストールすることはできない)

    MSI 版の Office (ボリュームライセンスなど) :
    ・コントロール パネルの [プログラムと機能] から該当の KB 番号をアンインストールする
    ・WSUS で該当の KB 番号に対して [削除の承認] を設定してアンインストールを配信する (こちらの「WSUS での配布の停止手順」を参考に設定してください)


    クイック実行版の Office の場合


    Office 2013: Office 2013 または Office 365 の更新プログラム
    Office 2016: Office 365 クライアント更新プログラムのチャネル リリース (最新に更新されていない場合は 英語)

    Office プログラムの [ファイル] タブ-[Office アカウント] の
    [Office 更新プログラム] の下に表示されるバージョン番号を確認します。

    Office2013 の場合の例をご紹介します。

    1. Office 2013 または Office 365 の更新プログラムにアクセスします。

    2. 確認を行いたいバージョンについての記述を探します (既に適用されているバージョンで問題が発生している場合は上記の方法で確認したバージョン、これから適用するバージョンについて確認したい場合はそのバージョン)。

    3. 探しているバージョンよりも新しいバージョンが同じ月にリリースされていないかを確認します。

        たとえば、2016 年 2 月の Office 2013 更新プログラムでは こちらで紹介している不具合が確認されて再リリースが行われているため、以下のように 2016 年 2 月の更新が 2 回リリースされています。

    4. 同じ月に再リリースされている場合でも再リリースされていない場合でも、
        KB3137471 に含まれる更新プログラムの一覧が表示されます。

    5.「Office 2013」のセクションに含まれる複数のリンクをそれぞれクリックして内容を確認し、
         2016 年 2 月 9 日は、Office 2013 (KB3114717) の更新しますをクリックすると以下のように表示され、

         機械翻訳がわかりにくい場合は Notice の上に表示される「英語版 KB」の後に表示される
    URLの ja-jp を en-us に変更して

    クイック実行版と MSI 版では毎月同等の更新プログラムをリリースしているため、後述の「MSI 版の Office の場合」で説明する方法でおもな更新プログラムの再リリースの状況や不具合を確認することもできます。

    MSI 版の Office の場合

    MSI版の Office の場合は、コントロール パネルの [プログラムと機能] の [インストールされた更新プログラム] から 適用されている更新プログラムを確認できます。一番右端に表示されている [インストール日] を参考にしてどの更新プログラムが適用されているかを確認し、下に表示される [サポートのリンク] に表示されているリンクから KB にアクセスして不具合についての情報や配信が停止されていないかを確認します。

    クイック実行版と毎月同等の更新プログラムを提供しているため、前述の「クイック実行版の Office の場合」で説明した方法ですべての更新プログラムの再リリースの状況や不具合を確認することもできます。

    MSI 版の Office の場合は、クイック実行版のように Office 全体に適用されるのではなく

    クイック実行版の Office とはバージョンの確認方法が異なります。

    方法 1. Outlook.exe や Mso.dll のファイルのプロパティから確認する
     エクスプローラーで Office がインストールされているフォルダーを開き、
    確認したいファイルを右クリックして [プロパティ] の [詳細] タブからバージョンを確認します。
    Office 2013:
    C:\Program Files\Microsoft Office\Office15\Outlook.exe
    C:\Program Files\Common Files\microsoft shared\Microsoft Office\Office15\Mso.dll 
    Office 2016:
    C:\Program Files\Microsoft Office\Office16\Outlook.exe
    C:\Program Files\Common Files\microsoft shared\Microsoft Office\Office16\Mso.dll

    参考: 64 ビット版の Windows に 32 ビット版の Office をインストールしている場合は、
    C:\Program Files の代わりに C:\Program Files (x86) にある同じ場所にインストールされます。

    方法 2. Office プログラムの [ファイル] タブ- [Office アカウント]-[Outlook のバージョン情報] から確認する
    (注意: Office 2013 以前のみ、Office 2016 ではこの方法で確認できない)

    1  Office プログラムの [ファイル] タブ-[Office アカウント]-[Outlook のバージョン情報] を開きます。

    2.「Outlook」の後の ( ) 内に表示される番号は Outlook.exeのバージョン、
       「MSO」の後の ( ) 内に表示されるバージョンは MSO.DLL のバージョンです。

    以下の方法で、Outlook と Office 共通のおもな更新プログラムについてだけを確認することができます。 

    1. Outlook のビルド一覧にアクセスします。
    2. 確認を行いたいバージョンについての記述を探します (既に適用されているバージョンで問題が発生している場合は上記の方法で確認したバージョン、これから適用するバージョンについて確認したい場合はそのバージョン)。
    3. 探しているバージョンよりも新しいバージョンが同じ月にリリースされていないかを確認します。
    4. Outlook.exe Mso.dll Wwlib.dll に表示されるリンクをそれぞれクリックし、

    たとえば、Outlook 2013 では以下のように
    2015/11 に Outlook.exe を含む更新プログラムの再リリースが行われています。

    3101488をクリックすると以下の記述があり、この更新プログラムを適用すると Outlook 2013 がしばしばクラッシュする問題が確認されているため 2015/11/19 KB2975838をインストールする必要があることがわかります。


    0 0

    Olá Wiki Ninjas Brasil.

    Sejam muito bem-vindos à mais uma Wiki Life.

    O TechNet Guru Awards é um prêmio de caráter internacional e que procura reconhecer mensalmente o trabalho de contribuintes do Wiki, destacando os esforços na produção de conteúdo de qualidade e grande repercussão junto à comunidade técnica Microsoft. O principal pré-requisito para participação nesta iniciativa é a elaboração de artigos em língua inglesa, focando sempre que possível na resolução de problemas comuns do dia-a-dia e que podem ter sido inspirados a partir da atuação em fóruns do MSDN.

    Esta premiação contempla várias tecnologias e categorias, como C#, SQL Server, Business Intelligence (BI), infraestrutura e SharePoint. Em cada classificação são escolhidos ao todo 3 artigos, com a concessão de medalhas de ouro, prata e bronze a partir da avaliação de 5 juízes com atuação naquela área específica (ao menos 2 ou 3 destes são experts da própria Microsoft).

    Membros do próprio Wiki Ninja brasileiro vêm se destacando e sendo reconhecidos com esta premiação, conforme pode ser observado nos links a seguir:

    Tem uma ideia ou encontrou uma solução criativa e gostaria de escrever um artigo para concorrer ao TechNet Guru Awards? Acesse o link abaixo para obter maiores informações:

    E por hoje é isso... Até a próxima!


    Wiki Ninja Renato Groffe (Wiki, Facebook, LinkedIn, MSDN)

    0 0

    Jako každý správce jsem řešil otázku, jak optimálně distribuovat software na počítače. Možností je několik a každému zřejmě bude vyhovovat něco jiného. Variantu vše instalo-vat ručně na každém PC jsem rychle zavrhnul. Proto mi zůstaly varianty – image, Group Policy a Systém Center Configuration manager. Jako první jsem kdysi zvolil image, ale rychle přešel na GPO a nakonec na SCCM.


    Nainstaloval jsem si vzorovou stanici a veškerý software. Image jsem pak distribuoval na stanice. To fungovalo, dokud jsem nepotřeboval něco aktualizovat nebo přidat nějaký nový software. Vše řešit vytvořením nové image a její distribucí bylo nepraktické. Také obíhat všechny počítače a doinstalovávat SW ručně nebylo ideální.

    Group Policy

    Využití GPO je podle mého názoru mnohem vhodnější. Image obsahuje pouze Windows a základní nastavení. Po přidání nového PC do domény se automaticky nainstaluje veš-kerý SW. Tento způsob jsem používal hodně dlouho. Ale postupně jsem začal hledat způ-sob, jak řešit nedostatky. GPO je vhodný pro instalaci softwaru, pokud máme k dispozici soubor msi. S instalací exe souborů je to horší. Většinou se ale najde nějaký postup pomocí skriptu. I tady se ale objevily problémy. Při instalaci více SW pomocí skriptů jsem musel několikrát restartovat PC. Horší je distribuovat některé updaty a zajistit správné pořadí instalace u skriptů. Také chybí zpětná vazba o instalaci a GPO nelze použít pro instalaci produktů z Windows Store. To je nutno nechat na studentech a učitelích.

    System Center Configuration Manager

    Po zvážení nedostatků GPO jsem se rozhodl vyzkoušet SCCM. Instalace a nastavení není úplně triviální, ale lze najít mnoho rozumných a použitelných návodů. Tento produkt mě velmi příjemně překvapil. V podstatě umí vzdáleně distribuovat vše, co lze instalovat (exe, msi, skripty, z Windows Store, virtuální aplikace, web aplikace,…). Také mohu nastavit přesné pořadí instalace jednotlivých instalačních balíčků. Je zde zpětná vazba o instalaci. Mám tedy přehled o tom, jak dopadla instalace na jednotlivých počítačích. Pokud se něco nepovedlo, je zde řada velmi podrobných logů, kde zjistím, co se stalo a proč. SCCM má ale celou řadu dalších výhod. GPO se aplikují po restartu PC nebo přihlášení uživatele. SCCM používá klienta a umí instalovat SW bez nutnosti restartovat PC. Lze tedy instalovat, i když je počítač právě používán. Instalace exe souborů pomocí skriptů proběhnou všechny bez nutnosti restartování. Při instalaci SW si mohu vybrat jednu ze dvou variant distribuce – vynucenou nebo dobrovolnou. Vynucená instalace se provede automaticky v čase, jak je nastaven. Dobrovolná se neprovede automaticky, ale pouze se aplikace umístí do Katalogu aplikací. Uživatel si instalaci spustí, pouze pokud daný SW potřebuje. 

    SCCM – další možnosti

    SCCM není jen o distribuci SW. Lze propojit s WSUS a WDS. Také umí základní inventari-zaci HW a SW, která je pro běžné potřeby zcela dostačující. Součástí je i Endpoint Protection Manager. Pokud využíváme antivirové řešení Microsoftu na počítačích, tak SCCM nám umožní centrální správu a distribuci.

    Drobná rada na závěr. SCCM je velmi vhodné nainstalovat na server, kde je WSUS a WDS. Především pokud budeme chtít vše propojit. Pokud bychom instalovali System Center

    Operations Manager, tak je naopak velmi vhodné tento produkt nainstalovat na jiný server.

    Karel Nymsa

    Gymnázium Jaroslava Žáka, Jaroměř

    0 0
  • 03/17/16--06:35: Microsoft Virtual Academy
  • Informatika je velmi rychle se vyvíjející věda. Jako učitel musím často přizpůsobovat náplň svých hodin. Když jsem o jarních prázdninách hledal návody, jak zaktualizovat své hodiny tvorby webových stránek, zabrouzdal jsem na portál Microsoft Virtual Academy ( Nalezl jsem množství video návodů přímo od profesionálů z oboru.

    Portál je rozdělen do několika kategorií a na své si zde přijdou jak začátečníci tak hlavně pokročilí uživatelé. Své znalosti si můžete rozšířit v oblastech jako Vývoj pro cloud, Herní vývoj, Vývoj pro web, Vývoj pro Office 365, C# a XAML, Visual Studio, HTML 5 & CSS3. Jedna celá sekce je přímo věnována začátečníkům (viz Obrázek 1).

    Obrázek 1: Úvodní obrazovka po přihlášení

    K možnosti prohlížení videí a ke kompletnímu obsahu se dostanete po přihlášení pomocí Microsoft účtu. Navíc si můžete vytvořit vlastní studijní plán, do kterého si přidáváte jednotlivé kurzy, u nichž sledujete svůj postup (viz Obrázek 2). Kurzy obsahují množství videí, přičemž některé kapitoly mohou být zakončeny testem, v kterém si ověříte zvládnutí probraného tématu. Bohužel jen malé množství kurzů je v češtině, drtivá většina pak v angličtině.


    Já osobně jsem si vybral kurz od Boba Tabora HTML5 & CSS3 – Fundamentals development for absolute beginners. V 21 videích bylo shrnuto celé HTML5, CSS3 a další techniky tvorby webu včetně vytváření layoutu. Kurz byl pro mé potřeby naprosto ideální. Z videí navíc nemusíte čerpat jen Vy, ale můžete je nabídnout i Vašim studentům, jistě ocení možnost rozšířit si vlastní znalosti.

    Miroslav Kotlas, MIEE
    Gymnázium Česká, České Budějovice

    0 0

    Today’s Tip…

    • Disaster drills occur quarterly – simulation of full region outage and verification of recovery procedures.
    • Backups occur continuously on all databases. Automated monitoring of telemetry is in place to verify that backups have successfully completed.
    • Restores occur continuously as initiated by customers. Automated monitoring of telemetry is in place to verify that restores successfully complete.
    • Backup files are stored both in the same region and in another region in the same geography. (e.g. DB in JapanEast, backups are in JapanEast and JapanWest).

    0 0


    En este post de hoy queríamos haceros llegar información sobre este enlace donde nos comenta algo que pensamos a todos nos ha pasado más de una vez, que consiste en usar Excel para gestionar nuestros proyectos, y no plantearnos otra alternativa, ya que esta aplicación satisface nuestros criterios de funcionalidad.

    El artículo original puede encontrarse aquí.

    Y aunque referencia a Project 2007, os podéis imaginar que la recomendación es usar una versión más moderna Sonrisa.

    Es tentador iniciar un plan de proyecto en Excel, ya que ayuda a enumerar rápidamente todos los proyectos, a organizarlos como deseemos, e incluso crear algo similar a una vista de diagrama de Gantt. No obstante, una hoja de cálculo no será suficiente para calcular los cambios en el proyecto.

    Cuando tenemos que enfrentarnos a varios proyectos, programaciones interrumpidas y recursos compartidos, mantener una programación en una hoja de cálculo se convierte en una tarea abrumadora.

    Tenemos varios puntos a resaltar:

    Aprovechar la administración de recursos en toda la empresa.

    Cuando se utilizan hojas de cálculo para realizar el seguimiento de los proyectos, ¿qué ocurre cuando un único recurso está asignado a varios proyectos? Debemos administrar los recursos fuera del plan de proyecto, ya sea manualmente o con un programa de terceros. Esto puede causar sobreasignaciones, etc, lo cual se simplifica de manera drástica al usar Microsoft Project.

    Cálculo de los efectos de cambio en la planificación.

    Usar Project puede ayudarnos calcular automáticamente la programación, verificar disponibilidad de recursos, etc, de tal manera que podamos, de una manera rápida y sencilla, ser capaces de entender las posibles implicaciones que puedan tener determinados cambios.

    Uso de métodos flexibles para generar informes.

    Mediante el uso de Project podemos generar fácilmente informes visuales que deseemos mostrar en informes para, de una manera elegante y simple, mostrar el desarrollo de nuestra planificación de proyecto.

    Integración con Excel.

    Al exportar los datos del proyecto a Excel, podemos seguir utilizando su versátil funcionalidad de hoja de cálculo a la vez que aprovechamos la información que nos ofrece Project para hacer un seguimiento de la programación y los recursos del proyecto.


    Esperamos os resulte de interés, un saludo


    Jorge Puig

    0 0

    All the votes are in! 


    And below are the results for the TechNet Guru Awards, Fabulous February 2016 !!!!


    The TechNet Guru Awards celebrate the technical articles on TechNet, contributed from valued wiki authors like YOU!

    Each month, the contributions are scored by a panel of judges (5 per category, 2-3 in each are MS experts), and the winners of each category are showered with love and attention from all corners of TechNet.

    See the links at the bottom, to find out more about the competition and how to enter.


    We have picked the top three highest scored contributions for each category to bestow our awards upon.

    The awards are in gold, silver and bronze, the gold obviously being the top winner of the category.

    The last column is just a few of the comments judges made during the judging process.

    In some cases, we have not obtained permission to use the judges names, so they have been reduced to initials.


    My fellow wiki ninjas will be digging deeper into some of these articles in this blog series, so watch out for those.

    Starting this month you will notice some articles are marked as failing to meet our minimum bar for quality or content.

    Any of our judges can exercise their right to veto an article, if they do not feel it meets minimum requirements for a medal.  

    When this is the case, we will at least give an indication of the reason, so you understand why.


    A big thank you also to the other authors who did not make the top three of each category.

    Some articles only just missed out, so we may be returning to discuss those too, in future blogs.

    Guru Award  BizTalk Technical Guru - February 2016  

    Gold Award Winner


    Steef-Jan Wiggers BizTalk Server Convoy Sandro Pereira: "Explaining what it is and its concepts, it as well, so important as explain how it's done. Very good choice of topic, really well explained and in clearly way. Great job Steef-Jan. For me the best of the month. "
    Ed Price: "The diagrams really bring this alive!"
    LG: "It is really full description of one of the complex idea in BizTalk." 

    Silver Award Winner


    Eldert Grootenboer Deploying web services with BizTalk Deployment Framework Ed Price: "Thank you! This is a much-needed scenario that's very well written!"
    Sandro Pereira: "Again well explain and in clearly way, an excellent article for BTDF lovers :). Great job."

    Bronze Award Winner


    lanax Continuous deployment - BizTalk Applications built using BTDF and Octopus deploy Sandro Pereira: "Good article, nice to see people right about new tools and how that they can add value."
    Ed Price: "Great scenario on continuous deployment! The code could use a breakdown to explain the parts, but the introduction is very thorough!"

    Also worth a mention were the other entries this month:

    • BizTalk360 Custom Notification Channels by Eldert Grootenboer
      Sandro Pereira: "Another great article related to this excellent monitoring tool. A must have article for admin team that are using BizTalk360. Great job Eldert."
      Ed Price: "Great job on this. The images help walk you through it, and it's valuable to have the source code available on the MSDN Gallery!"
    • Handling field delimiters as content in Flat File Schema by Mauricio Feijo
      Ed Price: "Great breakdown of the solution."
      Sandro Pereira: "Don’t get me wrong I love the topic but I had the impression that something is missing, it is very vague. In my opinion it requires more detail to be an article that brings additional value."
    • Introduction to BizTalk360 Version 8.0 by Steef-Jan Wiggers
      Sandro Pereira: "Great introduction to this excellent monitoring tool. Good job Steef-Jan."
      Ed Price: "Great descriptions. The API and Conlusion sections are especially well written!"
      Using XPath expressions in BizTalk by Eldert Grootenboer
    • Sandro Pereira: "You are once again on fire this month Eldert, great job. Excellent samples and good explanations. And very useful topic."
      Ed Price: "Great breakdown of the scenarios!"

    Guru Award  Forefront Identity Manager Technical Guru - February 2016  

    Gold Award Winner


    Jeff Ingalls MIM 2016: Privileged Access Management (PAM) - FAQ Ed Price: "Great resource to come back to!"
    Søren Granfeldt: "Good start"

    Silver Award Winner


    Wim Beck FIM2010: Selective Import Attribute Flow Søren Granfeldt: "Nice ideas...."
    Ed Price: "Great scenario and thorough Intro and Possible Solutions sections! Could benefit from a breakdown of the code or a conclusion. Great formatting!"

    FIM legends Jeff and Wim enter the history books of TechNet wiki and stamp their authority of this vital technology. Could YOU be listed next month? Know someone who could? 

    Guru Award  Microsoft Azure Technical Guru - February 2016  

    Gold Award Winner


    Steef-Jan Wiggers Access Azure Redis Cache with an API App JH: "Nice article about combining Redis and API Apps, especially the integration of Swagger is great."

    Silver Award Winner


    XAML Guy IoT Suite Under The Hood - Predictive Maintenance JH: "Have played with the template myself. Great to see an article about it. Would love to see an article on how to customize the template in more detail."

    Bronze Award Winner


    Samir Farhat How to access an ARM Azure virtual machine from Internet JH: "Had the problem myself in the beginning. Found a way through the portal. Good to see PowerShell scripts to do it in a repeatable fashion."

    Also worth a mention were the other entries this month:

    Guru Award  Miscellaneous Technical Guru - February 2016  

    Gold Award Winner


    Geetanjali Arora An Introduction to Microsoft Graph API Richard Mueller: "Very well explained with good detailed steps. I like the references."
    Peter Laker: "Top marks Geentanjali, nice article"

    Silver Award Winner


    Gaurav Kumar Arora Cruds in NancyFx using ASP.Net and FluentNHibernate Using Repository Pattern Richard Mueller: "Lots of good code and images. Grammar needs work."
    Peter Laker: "Very interesting, thanks Gaurav"

    Bronze Award Winner


    SYEDSHANU ASP.NET MVC User Role Base Menu Management Using WEB API And AngularJS Peter Laker: "Wow great article!"
    Richard Mueller: "Lots of code and detailed steps."

    Also worth a mention were the other entries this month:

    Guru Award  SharePoint 2010 / 2013 Technical Guru - February 2016  

    Gold Award Winner


    Nathanaël Stassart OneDrive : Next Generation Sync Client Deployment guide Ed Price: "Wow this is thorough! Great formatting, color-coding the tables, including images, code formatting, and a general breakdown of each step, in depth!"
    Richard Mueller: "Good use of Wiki guidelines and great links. The "See Also" should be Wiki articles, this is really "Other Resources"."

    Silver Award Winner


    Rakhi Jain SharePoint 2013 : Customize Document Library TreeView Navigation Bar Richard Mueller: "Great use of Wiki guidelines."
    Ed Price: "Short and sweet. Great scenario and good use of an image and code formatting! Very clear steps."

    Bronze Award Winner


    TenPart SharePoint 2010: Updating TermStore using PowerShell Ed Price: "Good details and formatting. Could benefit from a TOC, breakdown of the code, and a See Also section at the end for Wiki links. Thank you!"
    Richard Mueller: "Good code. We could use some references."

    Also worth a mention were the other entries this month:

    Guru Award  Small Basic Technical Guru - February 2016  

    Gold Award Winner


    Ed Price - MSFT Small Basic 1.2: Installation Guide Richard Mueller: "Good use of Wiki guidelines. Great images that detail the steps."

    Silver Award Winner


    Nonki Takahashi Small Basic: Desktop Michiel Van Hoorn: "Realy cool to interact with Windows components."
    Richard Mueller: "Excellent use of Wiki guidelines"

    Bronze Award Winner


    Ed Price - MSFT Small Basic: How to Publish Your Program Richard Mueller: "Good images and useful information."
    Michiel Van Hoorn: "Sharing is caring. How much fun is it to share your code with friends and family"

    Also worth a mention were the other entries this month:

    Guru Award  SQL BI and Power BI Technical Guru - February 2016  

    Gold Award Winner


    Benchmark your SQL Server instance SSIS - Transfer data from Multiple tables using a single DFT PT: "Vinay, this is a very creative and useful solution to a difficult problem. I've seen multiple ETL frameworks for SSIS over the years and I think your approach is quite sound. Congratulations on winning the Guru award this month!"
    RB: "Nice walkthrough and solution to a common scenario"

    Silver Award Winner


    Visakh16 SSRS Tips : Implementing OR Based Logic for Dataset Filters PT: "Visakh, thanks for posting this useful information about report filters. This is a powerful feature that takes a bit of effort to use effectively."

    Bronze Award Winner


    Greg Deckler Dates Prior to 1900 in DAX PT: "Greg, thanks for this insightful contribution. The date range limit is something I run into all the time and is a tough problem to solve. This is a good work-around technique."
    RB: "Interesting workaround"

    Come on BI community! Let us be proud of our Powerful ways! Let us March for SQL BI and Power BI

    Guru Award  SQL Server General and Database Engine Technical Guru - February 2016  

    Gold Award Winner


    FLauffer Workaround for Delay in Transaction Log Truncation: Snapshot Replication UR: "good and short explanation of a common problem with transaction logs."
    DRC: "The article talks about executing sp_repldone as workaround which can be used only as a last resort. "
    Peter Laker: "There was some discussion about the validity of this article. The conclusion is that it is a valid TechNet Wiki article, but should only be for "implementing a workaround which need to be used only as a last resort to fix the issue only when the other options are exhausted"

    Where are you daring DBAs and sexy SysAdmins! Step up and show us your talents!

    Such a mighty community of data delving dudes, but not very good at giving... ;)

    Guru Award  System Center Technical Guru - February 2016  

    Gold Award Winner


    Darren Joyce SCOM Reset Health on Alert Close Alan Carlos: "Thanks for article!"
    Ed Price: "Great depth and details in this article! "

    We need more System Center contributors! Could you could help, or do you know someone who can? Pass the word!

    Guru Award  Transact-SQL Technical Guru - February 2016  

    Gold Award Winner


    Olaf Helper SQL Server: Implementation of N-Gram Search Index

    Richard Mueller: "Very interesting ideas for search. Good use of Wiki guidelines"

    Ed Price: "I love how you break down the code and explain it so thoroughly!"

    Silver Award Winner


    Natig Gurbanov SQL SERVER:Using Datalength() function

    Richard Mueller: "Interesting. This could use some references."

    Ed Price: "Great topic. It could benefit from more explanation of the code."

    Transact SQL community where are you! Blog it! Tweet it! Facebook your friends! Let's get this party started!

    Guru Award  Universal Windows Apps Technical Guru - February 2016  

    Gold Award Winner


    George Chondrompilas Real-time chat UWP application using Azure Mobile App and SignalR

    JH: "Nice and simple example. Would love to see more examples using SignalR."

    Ed Price: "The breakdown of the code and the images add great value."

    Silver Award Winner


    Magnus (MM8) UWP: Disabling Selection Of Items In a ListView

    JH: "Nice workaround for disabling items."

    Ed Price: "Fantastic formatting and great explanations!"

    This is the future man! Whare are all the Gurus when you need em! Now is the time my friends to make your mark, like George and Magnus! Legends!

    Guru Award  Visual Basic Technical Guru - February 2016  

    Gold Award Winner


    .paul. calc2 - A VB.Net OOP Calculator MR: "Nice example!"
    Richard Mueller: "Interesting ideas. Lots of well documented code. Good use of Wiki guidelines."

    Silver Award Winner


    SYEDSHANU Control Chart Using VB.Net MR: "Nice and easy to use chart!"
    Richard Mueller: "Nice GUI. Lots of code."

    Is VB dead? I don't think so! We know you're out there! Step up and let us know thy name!

    Guru Award  Visual C# Technical Guru - February 2016  

    Gold Award Winner


    SYEDSHANU ASP.NET 5 CRUD using Scaffolding and Entity Framework Carmelo La Monica: "Very interesting article, very detailed and good images and video."
    Jaliya Udagedara: "Good article with a detail explanation. And the sample code is available in MSDN Code Gallery. Hint: you can use EF itself to generate the database and seeding the data rather than running the scripts."

    Silver Award Winner


    Emiliano Musso Binary Clock in C# and WPF Jaliya Udagedara: "This is interesting. Great explanation using code snippets, images and a video. And the sample code is available in MSDN Code gallery. Just great!"
    Carmelo La Monica: "Congratulation, very impressive imeges, good video dimostration and lot of funny :)"

    Bronze Award Winner


    Brian Seekford How to access legacy forms checkboxes and ActiveX checkboxes in Word using C#! by Brian Seekford Jaliya Udagedara: "Would love to have a better formatting in the article and of course a sample to download and try it out."
    Carmelo La Monica: "Good article. it can benefit format C# code and table of contents."

    Also worth a mention were the other entries this month:

    Guru Award  Wiki and Portals Technical Guru - February 2016  

    Gold Award Winner


    Ed Price - MSFT Wiki: Dynamics CRM Portal Richard Mueller: "A great portal with great links."

    We love our wiki. We award ourselves big hearty pats on the back too! Well done Ed. Keep at it boy!

    Guru Award  Windows PowerShell Technical Guru - February 2016  

    Gold Award Winner


    Pierre-Alexandre Braeken MCSE RSA with PowerShell - PowerRSA Ed Price: "Great depth! This article will be a good resource to return to!"

    Silver Award Winner


    Richard Mueller PowerShell AD Module Cmdlets Cannot Clear, Add, Remove or Replace Back Link Attributes Ed Price: "Beautiful formatting, and great use of the different sections!"

    Powershell is the KEY my friends! So much power under the hood! Only for REAL MEN (and real women of course)

    Guru Award  Windows Presentation Foundation (WPF) Technical Guru - February 2016  

    Gold Award Winner


    Andy ONeill Combobox Matching Complex Type

    Peter Laker: "Nice work Andy. Well presented and useful, just like you!"

    Ed Price: "I love how Andy's articles break down each snippet like this!"

    Silver Award Winner


    Brian Seekford How to display a different value in a WPF combobox based on selection i..e None instead of blank by Brian Seekford

    Peter Laker: "Thank you Brian, good contribution"

    Ed Price: "Good scenario. Could benefit from See Also links and code explanations. Good article!"

    WPF lives on in the REAL WORLD of common line-of-business apps that look good, are quick to knock up, and actually get the job done.

    The most productive in-house LOB devs are still using WPF - FOR THE WIN!

    Guru Award  Windows Server Technical Guru - February 2016  

    Gold Award Winner


    Kia Zhi Tang (Ryen Tang) Nano Server: Deploying an Internet Information Services (IIS) Web Server Alan Carlos: "Great article! Congratulations!!! Nano Server is amazing!"
    JM: "This is an excellent article on Nano server, thanks for your contribution"
    Richard Mueller: "Good references and step by step instructions."
    Mark Parris: "Good insight into the one of Nano server's capabilities."

    Silver Award Winner


    Mahdi Tehrani Load balancers and Active Directory Mark Parris: "Critical information that people need to be aware of."
    JM: "This is a good article that could use an edit pass for clarity"
    Richard Mueller: "I share your concern for the need of a load balancer. Any AD integrated app should use AD group memberships."

    Windows Server is such a huge machine within the development world. The powerhouse of so many applications. Guru needs more heroes like these two! Spread the word!

    --------------------------- 8< -----------------------------

    A huge thank you to EVERYONE who contributed an article to February's competition.

    Hopefully we will see you ALL again in March 2016's listings?


    If you haven't contributed an article for this month, and you think you can create a more useful, clever and better presented wiki article than the winners above, here's your chance! :D


    Best regards,
    Pete Laker

    More about the TechNet Guru Awards:

    Forum posts:

    Coming soon!

    0 0

    I’ve been on a process kick lately, in large part because issues that I encounter in SCOM environments aren’t related to the technology but the processes that surround them. From there, I decided to put together a nice primer of all of the things that need to be done in advance, or at the very least considered in advance.

    The Technical:

    Kevin Holman has a great quick start guide to setting up SCOM.  That really covers most of the technical side of the deployment, though there are a few key things you may want to consider before you start installing:

    • SQL Server location:  Are you going to keep the SQL server local to the SCOM server?  Do you have an enterprise cluster?  How are you going to carve out the DBs?  A default SCOM install uses two databases, though you can add more with reporting as well as ACS.  From a best practice standpoint, you may want to consider carving out separate volumes for the DB, DB log file, DW, DW log file, as well as the temp DB.  SCOM is very disk intensive, and isolating these five databases to their own volumes will help with performance.
    • Account naming convention, and if you want to create all of them:  Here’s what is required.  Kevin mentions the accounts in his quick start guide as well.  Oh, and for the sake of all things security, DO NOT use  a domain admin account for any of these accounts.  Also, don’t forget to configure your SPNs.
    • Sizing:  I get asked a lot as to how big to make the environment.  The answer is rather vague.  It really depends.  Microsoft provides a nice sizing guide that can help answer those questions.  The size of your environment really depends on what you want to monitor, as well as how much availability you want.
    • Backup strategy:  Do you want to backup just the databases?  That’s the traditional method, though I strongly recommending having a restore procedure in place and validated if that’s the plan.  I’d note that if space is a premium, you may want to consider grabbing your unsealed customizations.  That takes up a lot less space (at the cost of a total los of historical data in a disaster), but there are easy ways to do this, either by management pack or by script.
    • Data Retention:  The SCOM DB doesn’t keep data all that long, though in a larger environment, you may want to reduce those settings. In a smaller environment, you may want to consider increasing them.  DataWarehouse retention is a bigger deal as this is not configurable via the SCOM console.  The DW can also get rather large, particularly state and performance hourly data which has a default threshold of 400 days.  This can lead to a very large DW and a very angry storage administrator who wants to know why you need all that space.  I personally recommend keeping the daily aggregations for 365 days and the hourly aggregations for about 120 days.  That really is an organizational decision, but one that should be made early on.

    The quasi-technical:

    This is still somewhat technical, but there’s procedural considerations to be had here.

    • Naming convention for SCOM customizations as well as custom management packs:  I strongly recommend using some sort of organizational name to lead all of your customizations.  The reason being is that six months from now, you won’t likely remember what you named that custom monitor.  Save yourself the time and make sure you have some sort of consistent naming convention, for no other reason than to allow for an easier search.
    • What do you want to monitor:  Let’s start with the obvious, SCOM is a framework that can monitor a lot of things.  Microsoft makes management packs for most (if not all) of their products.  There are a lot of 3rd party MPs out there as well (note, not all are free).  Not all are that good.  Oh, and most importantly, don’t make the mistake that myself and many others have made in rolling all of them out at once.  You’ll want to tune each MP, so roll them out progressively (preferably in a QA environment first) so as to identify noise before you roll them out into production and have an angry monitoring team.
    • Alert Management:  I’ve written a 3 part piece on this subject.  The first part is here (and it links to the other two).  Suffice to say, most organizations don’t really sit down and think about how they plan on responding to alerts.  The end result is that the organization has purchased a monitoring tool, but it does not monitor. 
    • What to monitor:  Are you going to throw your development systems into your production SCOM environment?  Do you really only care about a few core systems?  The bottom line is that SCOM is going to tell you lots of things about your environment.  It’s great at detecting bad IT hygiene, and it doesn’t know what items are by design or not.  If you want to actually have a good process responding to alerts, then you probably want to sit down and decide what systems are important to alert on.  If you throw everything into one environment, you are going to make it very difficult on those who are supposed to do the monitoring.
    • What processes need changing:  This goes back to alert management, but the bottom line is that plenty of organizational processes will need to change to account for SCOM. A short list includes maintenance process, decommissioning of servers, commissioning of servers, responding to alerts.
    • Who needs access:  Contrary to a lot of systems, most of your IT staff really needs to be only an operator.  Their job is to close alerts, reset state, and dashboards/reports.  You probably don’t want to give them the rights to start customizing your environment.
    • Custom Views:  This involves meeting with the various teams in your organization, but you’re going to want to get them using SCOM.  This means that they should likely have a scoped role so as not to be exposed to items that they don’t need to see.  It may also involve creating custom dashboards for them.  There’s a lot of really cool things you can do with dashboards.  Here’s one for start.


    I’m married to a Quality Manager, so I get to hear about this every day in the manufacturing world, and I happen to have a degree in Manufacturing Engineering to go with it.  Needless to say, IT doesn’t do documentation that well, especially when it comes to break fix.

    • Customizations:  This is a big one.  I typically recommend implementing a basic versioning system for your custom MPs and using the built in description field to record the version number, what changed, who changed it, and why.  It doesn’t need a committee or special change management, but it can be very useful in keeping a running history of what was done in the environment.  As a bonus, when the SCOM owner leaves, his or her replacement will be able to pick up the changes much easier.  What often happens, however, when there’s little documentation is that the new administrator is often very tempted to simply start over. 
    • Health Check:  Microsoft offers an excellent service for many of their products known as a health check. You may want to consider doing something like this within the first few months of rolling out SCOM. A health check will determine if there are any performance bottlenecks in your environment as well as identify potential issues that you may need to address.  It will help you see where your best practices might be falling a bit short and allow you to maximize your use of the tool.  It’s not a requirement by any means, but it will provide you a very nice picture of your environment as well as a direction in terms of what needs to be addressed going forward.  (Shameless self promotion, but if by chance someone reads this and decides to purchase one, please be so kind as to let their account manager know that you read it here.  Those types of things look great on reviews).

    0 0

    Windows Server 2016 攻略系列文章分 Compute / Storage / Network 三大主題,其中 Compute 與 Storage 已由先前文章涵蓋介紹:

     Compute Storage

    新世代虛擬化平台 Hyper-V

    SDS 軟體定義儲存

    為雲端而生的極簡平台 Nano Server

    資料備援新選擇 Storage Replica


    儲存資源品質管控機制 Storage QoS

    三月份將帶來 Network 主題兩篇技術攻略:



        微軟新世代 Windows Server 2016 雲端作業系統,在 2014 年 10 月 1 日時正式發佈第一版的「技術預覽(Technical Preview,TP1)」版本,接著在 2015 年 5 月發佈 TP2 技術預覽版本、2015 年 8 月發佈 TP3 技術預覽版本。最新版本,則是在 2015 年 11 月時所發佈的 TP4 技術預覽版本。

    本文,將介紹在微軟新世代 Windows Server 2016 雲端作業系統當中,可整合 RDMA(Remote Direct Memory Access)特色功能,並同時建立虛擬交換器及網路小組的「SET(Switch Embedded Teaming)」網路機制。

    SMB Direct(RDMA)機制簡介

        事實上,從 Windows Server 2012 / 2012 R2 版本開始,便支援「SMB Direct」特色功能,這項功能支援 RDMA(Remote Direct Memory Access)的網路卡進行資料傳輸,簡單來說採用支援 RDMA 的網路卡,將可以達到「增加資料傳輸量、降低延遲時間、低 CPU 使用率」的效果。

    ( 上圖為未支援 RDMA 功能網路卡的資料傳輸方式 )

    圖片來源: MVA 微軟虛擬學院: 混合雲工作負載-儲存與備份

    ( 上圖為支援 RDMA 功能網路卡的資料傳輸方式 )

    圖片來源: MVA 微軟虛擬學院: 混合雲工作負載-儲存與備份

    SET(Switch Embedded Teaming)機制簡介

        但是,在舊版 Windows Server 2012 R2 運作環境中有項限制,當 Hyper-V 主機若配置支援 RDMA 功能的網路卡時,那麼所採用的 RDMA 網路卡將「不支援」建立「網路卡小組(NIC Teaming)、虛擬交換器(Virtual Switch)」,簡單來說 RDMA 網卡只能專用於儲存網路而已。

    ( 上圖為 Windows Server 2012 R2 RDMA 網路卡只能專用於儲存網路 )

    圖片來源: Microsoft Ignite 2015 – The Power of the Windows Server Software Defined Datacenter in Action

        現在,新版 Windows Server 2016 雲端作業系統中已經解除這項限制,你可以為使用 RDMA 網卡建立虛擬交換器及網路卡小組,同時若要使虛擬交換器支援 RDMA 特色功能的話,只要採用「SET(Switch-Embedded Teaming)」即可。

    ( 上圖為 Windows Server 2016 RDMA 網卡支援虛擬交換器 )

    圖片來源: Microsoft Ignite 2015 – The Power of the Windows Server Software Defined Datacenter in Action

        值得注意的部分是,在結合網路卡小組機制時 SET 僅支援「交換器獨立(Switch Independent)」模式,並且在負載平衡演算法部分也僅支援「動態(Dynamic)」、「Hyper-V連接埠(Hyper-V Port)」。

    建立SET(Switch Embedded Teaming)

        首先,必須確認主機配置的網路卡支援 RDMA 功能,才能著手建立 SET(Switch Embedded Teaming),在本文的實作環境中,採用的 RDMA 網路卡為 Mellanox ConnectX-3 Pro,安裝最新版本的驅動程式後,便可以使用「Get-NetAdapterRdma」指令來確認網路卡是否支援 RDMA 特色功能。

    ( 上圖為確認網路卡是否支援 RDMA 功能 )

        確認網路卡支援 RDMA 功能之後,便可以著手建立支援 RDMA 功能的 Hyper-V 虛擬交換器,與以往不同的是必須在建立虛擬交換器指令的結尾加上「-EnableEmbeddedTeaming $true」才行。此時,你會發現建立後的 Hyper-V 虛擬交換器尚未支援 RDMA 功能,所以你可以看到在 Enabled 欄位中該項目的欄位值為「False」。

    ( 上圖為剛建立的 Hyper-V SET 虛擬交換器仍尚未支援 RDMA 功能 )

    請使用「Enable-NetAdapterRdma」指令,搭配剛才所建立的 Hyper-V 虛擬交換器名稱,便可以為 Hyper-V 虛擬交換器啟用支援 RDMA 的功能。

    ( 上圖為指定的 Hyper-V 虛擬交換器啟用支援 RDMA 的功能 )

        最後值得注意的部分是,目前主流的兩種 RDMA 協定為 RoCE(RDMA over Converged Ethernet),以及 iWARP(Internet Wide Area RDMA Protocol)。

    倘若,企業或組織使用的 RDMA 網路卡採用 RoCE 協定的話,那麼採用的網路交換器「必須」要支援並啟用「DCB(Data Center Bridging)」功能,並且 Hyper-V 主機也必須安裝「Data Center Bridging」伺服器功能,同時還要設定「PFC(Priority Flow Control)」機制,那麼 RDMA 機制才能夠順利運作。

    若是採用支援 iWARP 協定的 RDMA 網路卡,雖然無須依賴交換器 DCB 功能並且 Hyper-V 主機也不用安裝 DCB 及設定 PFC 的優點,但普遍來說搭配支援 DCB 特色功能網路交換器的運作環境,可以更容易透過 DCB 功能達成硬體式 QoS 網路流量的目的。

    敬請期待下一波 Windows Server 最新消息,欲知更多請訂閱 TechNet 專業人員電子報以獲得第一手最新資訊!

    0 0

    It's another month, and another chance to find... the one!

    That special person who brings us... the knowledge!

    That thing we didn't know.

    That revelation that saves us so much bandwidth on the search tool.

    Clear and concise revelations that bring us closer to our goal!

    You have that power my friends!

    Step forth with words of wisdom!

    Step up and let us know your name!

    Carve your mark on the community... and history!

    MARCH forth and win glory, fame, love honour and immortality!!!! (in the form of the written word... kind of...)

    All you have to do is add an article to TechNet Wiki from your own specialist field. Something that fits into one of the categories listed on the submissions page. Copy in your own blog posts, a forum solution, a white paper, or just something you had to solve for your own day's work today.

    Drop us some nifty knowledge, or superb snippets, and become MICROSOFT TECHNOLOGY GURU OF THE MONTH!

    This is an official Microsoft TechNet recognition, where people such as yourselves can truly get noticed!


    1) Please copy over your Microsoft technical solutions and revelations to TechNet Wiki.

    2) Add a link to it on THIS WIKI COMPETITION PAGE (so we know you've contributed)  <----

    3) Every month, we will highlight your contributions, and select a "Guru of the Month" in each technology.

    If you win, we will sing your praises in blogs and forums, similar to the weekly contributor awards. Once "on our radar" and making your mark, you will probably be interviewed for your greatness, and maybe eventually even invited into other inner TechNet/MSDN circles!

    Winning this award in your favoured technology will help us learn the active members in each community.

    Below are last month's mighty winners and contenders!

    Thanks in advance!
    Pete Laker

    & Ninja Ed

older | 1 | .... | 861 | 862 | (Page 863) | 864 | 865 | .... | 889 | newer