گروه فنی و مهندسی وی سنتر

راهکارهای جامع دیتاسنتر

گروه فنی و مهندسی وی سنتر

راهکارهای جامع دیتاسنتر

راهکارهای جامع دیتاسنتر

پیوندها
  • ۰
  • ۰

در مورد سرور HP ProLiant DL380

For maximum energy efficiency, the HP DL380 G7 is designed to regulate the overall usage of power and adjust itself based on the applications being run at the time. For increased power and storage bandwidth, the DL380 G7 supports up to two dual, quad or six-core Intel Xeon 5600 seriess processors, eight small form factor (SFF) SAS and SATA drives, and embedded Smart Array RAID controllers. With 18 DIMM slots, the DL380 G7 is capable of 384GB Registered DDR3 memory orr 48GB Unbuffered DDR3 memory of DDR3 with 4:1 interleaving and mirrored memory capability.

To help boost overall uptime and simplify the configuration process, the HP ProLiant DL380 G7 offers many top-of-the-line management features. For quicker maintenance, this refurbished HPP server contains hot plug redundancy features with its tool-free modular components. The DL380 also has a clean design with minimal cables to giving you easier access to the components inside.

HP ProLiant DL380 Specs:

  • Brand: HP
  • Product Line: ProLiant
  • Product Type: 2U Rackmount
  • Form Factor: 2U Rack
  • Processors: Up to 2x dual, quad or six-core Intel® Xeon 5600 Series
  • Processor Cache: Up to 12 MB L3
  • Memory: Supports up to 384 GB DDR3; 18 DIMM slots
  • Hard Drives: Supports 8x hot-plug 2.5" SAS or SATA drives
  • Maximum Internal Storage: Up to 8 TB of data
  • I/O Slots: 6 PCI-Express Gen2 slots
  • Remote Management: HP Integrated Lights-Out (iLO) for ProLiant
  • Power Supply Unit: 460W PSU750W PSU or 1200W PSU
  • Sajjad Rezaei
  • ۰
  • ۰

HPE Integrity Superdome X Server

Are your mission-critical applications running on a costly proprietary system—and are you concerned about x86 reliability and availability, or are you using standard x86 servers but need extra scalability, performance or uptime? HPE Integrity Superdome X sets new high standards for x86 availability,, scalability and performance, the ideal platform for your critical Linux® and Windows® workloads. Superdome X blends x86 efficiencies with proven HPE mission-critical innovations for a superiorr uptime experience and groundbreaking performance. Breakthrough scalability of up to 16 sockets and 48 TB of memory handle your in-memory databases and large scale-up x86 workloads. Through our unique HPE nPars technology, Superdome X adds agility and delivers 20x greater reliability than platforms relying on soft partitions alone. Whether you want to maximize your applications uptime, standardize or consolidate, Superdome X helps you transform your mission-critical environment to move at the speed of business.

Features

Move at the Speed of Business

Accelerate insights and business transactions time to value with HPE Integrity Superdome X Server, highest performing platform on 16P two-tier SAP® Sales and Distribution (SD) standard application benchmark1.

Address your largest and most demanding workloads with breakthrough x86 scalability of up to 16 sockets and 48 TB memory2.

Scale confidently without compromising performance with a 1.77x scalability factor3 from 4 to 8 and from 8 to 16 sockets.

Increase Competitive Differentiation and Reduce Business Risk

Maximize the uptime of your critical applications on the HPE Integrity Superdome X Server with up to 20x greater reliability and 60% less downtime than other x86 platforms5.

Benefit from up to 95% reduction in memory outages over standard x86 with Hewlett Packard Enterprise "Firmware First" architecture and memory RAS improvements over Intel® base code6.

Isolate critical applications from other application failures with the Hewlett Packard Enterprise unique x86 hard partitioning (HPE nPars).

Experience zero planned downtime with maintenance and updates performed online without application outage using Serviceguard for Linux7.

Rest assured with five nines (99.999%) single-system availability9.

Redefine Economics for Mission-critical Compute

Increase cost efficiencies with a 45% lower TCO than Oracle Exadata4.

Re-host costly proprietary mainframe/RISC workloads with 41% lower TCO than IBM POWER10.

Lower solution costs by up to 35%11 with a scale-up vs scale-out solution.

  • 1.
    Source: SAP. Based on the SAP SD Standard Application Benchmark Results, Two-Tier Internet Configuration http://global.sap.com/solutions/benchmark/sd2tier.epx
  • 2.
    Source: Integrity Superdome X Server Quick Specs, June 2016
  • 3.
    Source: HPE internal testing. Performance results with HPE-ATX (patent pending) on the Superdome X with Gen9 using the Hammer DB OLTP multi-tenant workload and were achieved with one tenant totaling 144 users (4P), two tenants totaling 288 users (8P) and four tenants totaling 576 users (16P) for a 1-to-1 mapping of users to logical CPUs. Configurations that are over-subscribed may show less performance gain. Results as of April, 2016.
  • 4.
    Source: Based on HPE internal analysis results using publicly available competitive data, April 2015 Compares a 16-socket Superdome X server and HPE 3Par StoreServ 7440c runningg RHEL, Oracle DB and Serviceguard for Linux versus an Oracle Exadata X5-2 Full Rack running Exadata software, Oracle DB and Oracle RAC.
  • 5.
    Source: HPE Labs. Based on HA and field data modeling, using Markov chain high availability modeling, running applications on separate HPE nPars vs. running them together on the same HPE nPar using virtual machines. HPE, California. August 2015.
  • 6.
    Internal HPE Labs simulation, HPE improvements are in the error handling algorithm implementation. May 2014.
  • 7.
    Based on HPE Lab analysis while performing maintenance activities of the cluster including maintenance of heartbeat network. August 2015.
  • 8.
    Source: HPE internal comparison to HPE DL980 G7, August 2015
  • 9.
    Source: Based on HPE Lab availability analysis and actual measured availability results. Single-system Superdome X server availability of five nines (99.999%) can be greatly increased when used in combination with failover clustering solutions like HPE Serviceguard for Linux. June 2015.
  • 10.
    Compares a 12-socket Superdome X server running RHEL, Oracle database and IBM Power System E880 2-Node server running AIX, Oracle database Source: Based on HPE internal analysis results using publicly available competitive data, May 2016

 

Technical Specifications

Processor

  • Intel® Xeon® E7-8890 v4 24c/2.2GHz/165W/60M
  • Intel® Xeon® E7-8880 v4 22c/2.2GHz/150W/55M
  • Intel® Xeon® E7-8855 v4 14c/2.1GHz/140W/35M
  • Intel® Xeon® E7-8891 v4 10c/2.8GHz/165W/60M
  • Intel® Xeon® E7-8893 v4 4c/3.2GHz/140W/60M
  • Intel® Xeon® E7-8894 v4 24c/2.4GHz/165W/60M
  • Intel® Xeon® E7-8890 v3 18c/2.5GHz/165W/45M
  • Intel® Xeon® E7-8880 v3 18c/2.3GHz/150W/45M
  • Intel® Xeon® E7-4850 v3 14c/2.2GHz/115W/35M
  • Intel® Xeon® E7-8891 v3 10c/2.8GHz/165W/45M
  • Intel® Xeon® E7-8893 v3 4c/3.2GHz/140W/45M

Number of processors

  • 2- to 16-processors supporting 4- to 384-cores

Form factor

  • 18U enclosure / 42U HPE 600 mm wide Rack

Compute nodes

  • 1-8 two-socket server blades, each with 2x FlexLOMs slots, 3x mezzanine slots, and 48 DIMM slots
  • Up to 16 processors per Superdome X

Interconnect bays

  • Up to 8 I/O Interconnect Bays may contain 20GbE modules, InfiniBand modules , and 16Gb Fibre Channel modules.

I/O slots

  • 2 Dual-port FlexLOM daughter cards per Blade (up to 8 Blades)
  • 1 PCIe 8x Gen3 Mezzanine (Type A) slot per Blade (up to 8 Blades)
  • 2 PCIe 16x Gen3 Mezzanine (Type B) slots per Blade (up to 8 Blades)

Management features

  • HPE Onboard Administrator
  • HPE Smart Update Manager (HPE SUM)
  • HPE Integrated Lights-Out 4 (HPE iLO 4)

Operating environments

  • Red Hat Enterprise Linux (RHEL)
  • SUSE Linux Enterprise Server (SLES)
  • Windows Server
  • VMware
  • Visit the OS support matrix, www.hp.com/go/ossupport

Partitioning

  • Support for HPE nPartitions (nPars), electrically isolated hard partitions. Configurations of 1, 2, 3, 4, 6, or 8 blades and multiple nPars within a single Superdome Enclosure.

Memory

  • Up to 384 DIMM slots, 48 DIMM slots per server blade
  • Maximum memory: 24TB (384x 64GB DIMMs)
  • Minimum memory: 256GB (16x 16GB DIMMs)
  • 16GB DDR4, 32GB DDR4, and 64GB DDR4 DIMMs
  • Error checking and correcting (ECC) on memory and caches
  • Double-chip spare
  • Linux® is a registered trademark of Linus Torvalds.
  • Oracle® is a trademark of Oracle Corporation in the U.S. and other countries.
  • Intel® is a trademark of Intel Corporation in the U.S. and other countries.
  • Windows® is a registered trademark of Microsoft Corporation in the United States and other countries.
  • SAP® is a registered trademark of SAP AG.
  • Sajjad Rezaei
  • ۰
  • ۰

انتخاب سرور مناسب HP

با جک سرور HP ProLiant حمل و نقل را در هر 0011 ثانیه تجربه کنید، باا
فروشای بایش از 31 میلیاون، سرورهای HP ProLiant رهباران بلامناازع
بازارهای مشارک هساند. اجن سطح بالای پذجرش بازار در قسمای از تعهد ماا
در اججاد اسااندارد زجرساخای برای صنعت سرور کاه ارائاه دهناده اعامااد و
اطمینان می باشد، رجشه دارد.
خواه سرور جک دپارتمان باشد، خواه Data Center سازمانی، جا هرچیزی در
اجن بین، HP می تواند نیاز های شما را دقیقاا بار آورده کناد. شاما میاوانیاد
سطح مناسبی از عملکرد، دسارسی، توسعه پذجری و مدجرجت را اناخاب کنید.
HP سرورهای ProLiant را جهت برآوردن کلیه نیازهای مشاارجان در چهاار
خانواده مخالف ارائه می دهد.
در حال حاضر ما مقام گسارده ترجن سرورها را در مقیاس های صنعای
blades(BL), rack-optimized(DL), tower-servers (ML)
تا extreme HyperScale (SL) در اخایار دارجم .
به منظور کمک به شما در پیدا کردن مدل تجهیزات فعلیاان، اناخاب بهاارجن
سرور برای محیط شما و پیادا کاردن بهاارجن هاا بارای نیازهاجااان، طفاا از
راهنمای Hp ProLiant Gen8 Model دجدن فرماجید.

 

خانواده Hp ProLiant ML
سرورهای توسعه پذجر tower ، برای دفاتر راه دور و تجارتهای در حال رشد
اجده آل هساند.
سرورهای خانواده HP ProLiant ML
سرورهای Hp ProLiant ML سرورهاجی انعطاف پذجر به صاورت اجساااده و
توسعه پذجر میباشند. سرورهاجی که اناخابی اجده آل بارای دفااتر شاعب از راه
دور، DataCenter جا SMB هساند که باه ساروری نیااز دارناد کاه باواناد
بالاترجن عملکرد را با تجهیزات موجود فراهم کند و قابل توسعه برای رشاد در
آجنده را نیز دارا باشد .
سرور های ProLiant ML 300 هام در مادلهای tower و هام در مادل
rack موجود است. اجن سرورها برای برنامههای شعب دفاتر در حال فعا یت از
راه دور تا data center هاجی که به حجم زجاادی از حافظاه داخلای و I/O
برای SMB نیازمند محاسبات ضروری و ظرفیتهای قابال توساعه میباشاند،
اجده آل است . سریهای ML300 شامل آخرجن فن آوری Gen8 در ظرفیات
حافظه و مدجرجت میباشند .
خانواده HP ProLiant Gen8ML شامل :
 سرور های HP ProLiant ML300p ، مراکاز داده انعطااف پاذجر
rack جا tower اسااندارد با عملکردی پیشرو و تطبیق پذجر است.
 سرور های HP ProLiant ML300e سارورهای tower کاه
اسافاده آسان و راحت را بازتعرجف میکنند .

 

خانواده HP ProLiant DL
سرور چند منظوره Rack ، جهت بالانس میان راندمان و مدجرجت بهیناه شاده
است.
سرورهای خانواده HP ProLiant DL The
سرورهای HP ProLiant DL سرورهای چند منظوره و بهینه شده در Rack
را که بالانس کننده مدجرجت، اجارا و رانادمان مای باشاند، ارائاه مای دهناد.
سرورهای HP DL نماجانگر چندجن دهه دانش فنی مهندسی مای باشاند کاه
برای تسرجع در پیاده سازی فن آوری محاسبات تجاری جدجد، تجربه را با کاار
خود ادغام می کنند.
سرورهای خانواده HP ProLiant DL سرورهاجی قدرتمند در ابعاد 0 و 0 و 5
و 4 و جا U 8 هساند که برای عملکارد فرآجناد هاای مبانای بار محاسابه، باا
مجموعه ای از گزجنه های ظرفیت داخلای در جاک rack package فشارده،
اجده آل می باشند. برای Gen8 ، سرور هاجی با تعداد هساه های پاردازش گار
بیشار، حافظه و توان داخلی، ظرفیای ارتقا جافاه را به همراه نسل بعادی فان-
آوری HP Smart Array ارائه می دهند.
خانواده HP ProLiant Gen8 DL شامل :
 سری های HP ProLiant DL100 عملکرد محاساباتی باالا در –
طرحی انبوه و مقرون به صرفه.
 سری هاای HP ProLiant DL300p – Rack server Data center اسااندارد با عملکردی برجساه و تطبیق پذجر.
 سرورهای HP ProLiant DL300e سرورهای Rack که نیازهای
ضروری و اسافاده آسان محاسبات را بازتعرجف میکنند.
 HP ProLiant DL500 افزاجش مقیاس سرورها برای محاسبات –
حجیم کاری.

 

خانواده HP ProLiant SL
هدفمند ساخت شده برای اکثر – Data Center های فوقا عاده در جهان
سرورهای خانواده HP ProLiant SL
سرورهای HP ProLiant SL با سیسامی هدفمند، ساخت شاده بارای اکثار
ماقاضیان محیطهای HyperScale و همچنین اجده آل برای ارائه دهنادگان
سروجس وب / هاساینگ / cloud و عملکرد بالای محیط محاسباتی، خانواده
سرورهای SL توزجع پذجری سرجع

، چابکی بیشار و کاهش هزجنههای اجراجای
را قادر میسازد.
خانواده HP ProLiant Gen8SL شامل :
 سرورهای HP ProLiant SL6500 : هدفمند به منظاور انجاام –
محاسبات با عملکرد بالا با اسافاده از سرورهای مدولار ساخت شده
است .
 سرورهای HP ProLiant SL6500 : شامل وجژگیهاجی با کاراجی
بالا از جمله FDR InfiniBand و Integrated GPUs میباشند،
که نو آوری زجر ساخای را برای کاهش چشمگیر هزجناهها، افازاجش
بازده انرژی، به اشاراک گذاشاه است

  • Sajjad Rezaei
  • ۰
  • ۰

HPE ProLiant DL380 Gen9 Server

What is your server bottleneck...storage, processing, expansion? The world’s best-selling server1 just got better. The HPE ProLiant DL380 Gen9 Server delivers the latest performance and expandability. Reliability, serviceability and near continuous availability, backed by a comprehensive warranty, makes it ideal for any server environment. Deploy the data center standard. Designed to reduce costs and complexity, leveraging Intel’s latest E5-2600 v4 processors with 21%2 performance gain, plus the latest HPE 2400 MHZ DDR4 SmartMemory supporting 3.0 TB and up to 23%3 performance increase. Supporting 12 Gb/s SAS, 40 Gb NIC with broad range compute options. HPE Persistent Memory, the world’s first NVDIMM optimized on ProLiant, offering unprecedented levels of performance for databases and analytic workloads. Run everything from the most basic to mission critical applications, and can be deployed with confidence.

What's new

  • New Capacity Drives
  • New GPU options
  • Enhanced NIC offering
  • Support for Microsoft Windows Server 2016
  • Clear OS support

Features

Flexible Design Makes Your Investment "Future Proof" so it Can Grow as Your Business Needs Expand

The HPE ProLiant DL380 Gen9 Server has a flexible redesigned chassis, including new HPE Universal Media Bay configuration options with 8 to 24 SFF and 4 or 12 LFF drive options along with NVMe options and additional rear drive support for expandability and investment protection.

HPE Persistent Memory, the first Non-volatile DIMM (NVDIMM) optimized on HPE ProLiant, offering unprecedented levels of performance and data resiliency for databases and analytic workloads.

In conjunction with the embedded SATA HPE Dynamic Smart Array B140i Controller for boot, data and media needs, the redesigned HPE Flexible Smart Array and HPE Smart SAS HBA Controllers allow you the flexibility to choose the optimal 12 Gb/s controller most suited to your environment.

You have a choice of embedded 4x1GbE, HPE FlexibleLOM or PCIe standup 1GbE to 40GbE Adapters provide you flexibility of networking bandwidth and fabric so you can adapt and grow to changing business needs.

World-class Performance and Industry-leading Energy Efficiency

The HPE ProLiant DL380 Gen9 Server supports industry standard Intel® Xeon® E5-2600 v3 and E5-2600 v4 processors with up to 22 cores, 12G SAS and 3.05 TB of HPE DDR4 SmartMemory.3

High efficiency redundant HPE Flexible Slot Power Supplies provide up to 96% efficiency (Titanium), HPE Flexible Slot Battery Backup module and support for the HPE Power Discovery Services offering.

Improved ambient temperature standards with HPE Extended Ambient Operating Support (ASHRAE A3 and A4) and optional performance heatsinks help to reduce cooling costs.4

Enhanced performance with active and passive, single and double-wide GPU support for workload acceleration.

Agile Infrastructure Management for Accelerating IT Service Delivery

With HPE ProLiant DL380 Gen9 Server, HPE OneView provides infrastructure management for automation simplicity across servers, storage and networking.

Online personalized dashboard for converged infrastructure health monitoring and support management with HPE Insight Online.

Configure in Unified Extensible Firmware Interface (UEFI) boot mode, provision local and remote with HPE iLO with Intelligent Provisioning and Scripting Toolkits.

Embedded management to deploy, monitor and support your server remotely, out of band with HPE iLO.

Optimize firmware and driver updates and reduce downtime with Smart Update, consisting of SUM (Smart Update Manager) and SPP (Service Pack for ProLiant).

Industry Leading Serviceability

The HPE ProLiant DL380 Gen9 Server comes with a complete set of HPE Technology Services, delivering confidence, reducing risk and helping customers realize agility and stability. HPE provides consulting to transform your infrastructure; services to deploy, migrate and support your ProLiant Servers.

Hewlett Packard Enterprise provides consulting advice to transform and modernize your infrastructure; services to deploy, migrate and support your new ProLiant servers and education to help you succeed quickly.

Technical Specifications

Processor family

  • Intel® Xeon® E5-2600 v3 product family
  • Intel® Xeon® E5-2600 v4 product family

Number of processors

  • 1 or 2

Processor core available

  • 22 or 20 or 18 or 16 or 14 or 12 or 10 or 8 or 6 or 4

Processor cache

  • 10MB L3
  • 15MB L3
  • 20MB L3
  • 25MB L3
  • 30MB L3
  • 35MB L3
  • 40MB L3
  • 45MB L3
  • 50MB L3
  • 55MB L3

Processor speed

  • 3.5GHz

Form factor (fully configured)

  • 2U

Form factor chassis

  • Rack

Power supply type

  • (2) Flex Slot

Expansion slots

  • (6) Maximum - For detail descriptions reference the QuickSpecs

Memory, maximum

  • 3.0TB
  • With 128 GB DDR4

Memory slots

  • 24 DIMM slots

Memory type

  • DDR4 SmartMemory

Drive description

  • ((4) or (12)) LFF SAS/SATA/SSD
  • ((8), (10), (16), (18) or (24)) SFF SAS/SATA/SSD
  • (2) SFF Rear drive optional or
  • (3) LFF Rear drive optional
  • and
  • (6) SFF NVMe (optional)
  • NVMe support via Express Bay will limit max drive capacity

System fan features

  • Hot plug redundant standard

Graphic card

  • Choice of up to 2 double wide GPGPU's, or 3 single wide GPGPU's

Network controller

  • 1Gb 331i Ethernet Adapter 4 Ports per controller and/or
  • Optional FlexibleLOM
  • Depending on model

Storage controller

  • (1) Dynamic Smart Array B140i and/or
  • (1) Smart Array P440ar
  • (1) Smart Array P840
  • Depending on model

Infrastructure management

  • iLO Management (standard), Intelligent Provisioning (standard), iLO Advanced (optional), HP Insight Control (optional)

Warranty

  • 3/3/3 - Server Warranty includes three years of parts, three years of labor, three years of onsite support coverage. Additional information regarding worldwide limited warranty and technical support is available at: http://h18004.www1.hpe.com/products/servers/platforms/warranty/index.html Additional HPE support and service coverage for your product can be purchased locally. For information on availability of service upgrades and the cost for these service upgrades, refer to the HPE website at http://www.hpe.com/support
  • Sajjad Rezaei
  • ۰
  • ۰

تکنولوژی آموزشی چیست؟

تکنولوژی آموزشی، به مفهوم جدید آن، از وسایل سمعی و بصری بحث نمی کند همچنین، هدف تکولوژی آموزشی، ترویج و توسعة تلویزیون، رادیو و ماشینهای آموزشی، کامپیوتر و سایر ابزارهای آموزشی قدیم یاا جدید نیست. به علاوه تکنولوژی آموزشی به وسایل مکانیکی یا الکترونیکی نیز اطلاق نمی شود و چنانچه روزیی پریزهای برق مسدود شود یا نیروی برق برای همیشه از بین برودع تکنولوژی آموزشی همچنان وجود دارد وو ما نیز همواره به آن نیازمند خواهیم بود؛ زیرا تکنولوژی آموزشی به همان گستردگی آموزش و پرورش است.

 

مفهوم تکنولوژی آموزشی

تکنولوژی آموزشی، درعمل با طراحی و ارزشیابی برنامه های درسی، تجارب آموزشی، اجرا و اصلاح مجدد آنها بستگی دارد، به بیانی دیگر: تکنولوژی آموزشی یک روش اصولی و منطقی برای حل مشکلات آموزشی وو  برنامه ریزی درسی است که با نوعی تفکر سیستماتیک ( منظم و علمی) همراه است.

با توجه به این مفهوم، اطلاق عنوان تکنولوژی آموزشی به وسایل سمعی و بصری یا سایر ابزارهای آموزشی و کمک آموزشی، صحیح به نظر نمی رسد. البته این بدان معنی نیست که در روش تکنولوژیی آموزشی، از وسایل سمعی و بصری یا رسانه های آموزشی استفاده نمی شود؛ بلکه بر عکس ، استفاده ازز وسایل سمعی و بصری و  کاربرد رسانه ها در همة مفاهیم و تعاریف تکنولوژی آموزشی مستتر است. اما هیچچ یک از سیستمهای پذیرفته شدة تکنولوژی آموزشی، وسایل و رسانه ها را هدف نمی داند و آنها را وسیله ای برای عمومیت دادن و زودتر به نتیجه رسیدن تلقی می کند.

برای توجیه این مفهوم، نخست تکنولوژی و سپس تکنولوژی آموزشی را تعریف می کنیم.

 

تعریف تکنولوژی و تکنولوژی آموزشی

« کاربرد ابتکاری یافته های یک رشتة علمی را در صنعت- یا در یک کار عملی- تکنولوژی می گویند.»با توجه به این تعریف، تکنولوژی آموزشی را چنین تعریف کرده اند:

« مجموعه ای از معلومات ناشی از کاربرد علوم آموزشی و فراگیری در دنیای حقیقی کلاس درس، همراه با ابزارها و روشهایی که کاربرد علوم گفته شده در بالا را تسهیل می کند...»[

علاوه بر تعریف فوق، از تکنولوژی آموزشی تعریفهای دیگری نیز شده است. تعریف زیر را که از سایر تعریفها جامع تر است، برای آگاهی آن دسته از علاقه مندان که به تازگی با مفهوم تکنولوژی آموزشی آشنا شده اند،،  انتخاب کرده ایم:

« تکنولوژی آموزشی عبارت است از روش سیستماتیک طراحی، اجرای و ارزشیابی کل فرایند تدریس و یادگیری که براساس هدفهای معین و یا بهره گیری از یافته های روان شناسی یادگیری و علم ارتباطات و به کارگیری منابع مختلف- اعم از انسانی وغیر انسانی- به منظور آموزش مؤثرتر تنظیم واجرا می شود. »

 

ضرورت بازنگری در تحلیل تئوریک مدارس

از تحلیل تعریف فوق چنین نتیجه می گیریم که تکنولوژی آموزشی:

 

- یک روش است.

- این روش سیستماتیک است؛ یعنی مؤلفه های فرایند آموزشی، با تدبیر خاصی ، در کنار هم قرار می گیرند. و براساس یک رابطة منطقی وعمل متقابل، برای رسیدن به یک هدف معین و به صورت یک واحد، عمل می کنند.

- هدف این روش(تکنولوژی آموزشی) رسیدن به آموزش مؤثرتر، یعنی افزایش کیفیت و کمیت یادگیری است.

- قلمرو تکنولوژی آموزشی، طراحی، اجرا و ارزشیابی کل فرایند تدریس و یادگیری است.

- در این روش ، از یافته های روان شناسی- بخصوص روانشناسی یادگیری و علوم ارتباطات- به طور عملی استفاده می شود.

- منابع لازم، براساس هدفهای آموزشی و محتوای درسی انتخاب می شود که ممکن است شامل انسان یا  اشیاء و ابزارهای یا هر دو باشد.

در اینجا این سوال ها پیش می آید که : چرا گروهی وسایل سمعی و بصری( سخت افزارها) ، عده ای، مواد آموزشی (نرم افزارها) و جمعی هم فنون مربوط به طراحی ، اجرا و ارزشیابی کل فرایند آموزشی را تکنولوژی آموزشی می دانند؟ این چندگانگی تعبیر از کجاست؟  و چرا این چند گانگی در مفهوم تکنولوژی آموزشی به وجود آمده است؟

 

پاسخ این سؤال ها در مسیر و مراحل تکامل تکنولوژی آموزشی نهفته است که به اختصار بیان می شود:

1- پیش از شکل گیری و ظهور مفهوم جدید تکنولوژی آموزشی، این عنوان به تکنولوژی ابزارهای سمعی و بصری( سخت افزارها) اطلاق می شد. در این مرحله ابزارها و وسایل سمعی و بصری رونق خاصی پیدا کردند. هدف از کاربرد این وسایل،کمک به معلم در امر آموزش بود. انواع پروژکتورهای فیلم و اسلاید، تلویزیون، رادیو، تخته سیاه، و... همه جزو وسایل سمعی و بصری محسوب می شدند. از این رو، این وسایل عملاً به نام وسایل کمک آموزشی معروف شدند. این عقدیه که وسایل سمعی و بصری امر تدریس را تسهیل می کند؛ محیط کلاس را از یکنواخت بیرون می آورد؛ و گروه بیشتری از دانش آموزان زیر تعلیم قرار می گیرند، سبب توسعه و تکمیل کارافزارهای سمعی و بصری شده  که در حقیقت همان تکمیل تکنولوژی ابزارهای آموزشی است. ولی این دلخوشی چندان طول نکشید و درعمل با شکست روبه رو شد. زیرا صرف هزینه های گزاف برای تهیة این دستگاهها و کم اعتباری آن ها از نظر معلمان، کمبود نرم افزارهای آموزشی، بی اعتقادی و همچنین ترس برخی معلمان از کاربرد دستگاه های فنی و بالاتر از همه، نبودن منطق و انگیزة کافی برای اثبات کارآیی این دستگاهها در پیشرفت امر آموزش، سبب دوری گرفتن و امتناع تدریجی معلمان از آن ها شد.

 

2- در مرحلة دوم، انواع مواد آموزشی، بویژه نرم افزارها( یعنی خوارک دستگاه های سمعی و بصری ، مانند: فیلم، اسلاید،

ضرورت بازنگری در تحلیل تئوریک مدارس

طلق شفاف، نوار ویدیو ، ...) توسعه پیدا کردند؛ به ترتیبی که انواع عکس ها ، کتاب ها، کیت ها و بازی های آموزشی، یکی بعد از دیگری وارد صحنة آموزشی شدند. در همین دوره استفاده از اشیای سه بعدی و اشیای حقیقی درکلاس های درس معمول شد. ولی در هر حال هدف ، همان کمک به معلم و تسهیل امر تدریس بود؛ یعنی ابزارها و مواد کمک آموزشی به منظور تدریس بهتر ساخته می شدند. این وسایل نیز در  عمل چندان موفقیتی به دست نیاوردند. زیرا نرم افزارها اغلب براساس منافع شرکتهای تجارتی و نه بر مبنای نیازهای آموزشی تولید می شدند.

از طرف دیگر ، اهل فن به تدریج تذکر می دادند که  تدریس موفقیت آمیز، مستلزم یادگیری موفقیت آمیز نیست. در طرز تفکر اول، معلم محول تمام فعالیتهای آموزشی است و آموزش( تدریس) اصل به حساب می آید. ولی در برداشت دوم ، دانش آموز یا به عبارت بهتر،  یادگیری هدف غایی آموزش است. آثار این طرز تفکر در مرحلةة  سوم تکامل تکنولوژی ، به خوبی نمایان شد.

3- در مرحلة سوم، کل فرایند تدریس و یادگیری به صورت یک سیستم واحد آموزشی مورد توجه قرار گرفت که محور اصلی سیستم را دانش آموزان تشکیل می دهد. براساس این طرز تفکر ، هدف های آموزشی تعیین میی شود. محتوای درسی و تجارب آموزشی تنظیم می گردد، توانایی فردی دانش آموزان مشخص می شود؛ برنامه های آموزشی به طور منطقی به اجرا در می آیند و از کل فرایند آموزشی و یادگیری ارزشیابی به عمل می آید.

 

آموزش و آزادی عمل

این طرز تفکر جدید دربارة تکنولوژی آموزشی ( برنامه ریزی علمی و منطقی که از تعیین هدفهای آموزشی به ارزشیابی کل فرایند آموزشیی منتهی می شود) در واقع قلمرو تکنولوژی آموزشی را تعیین وظایف تکنولوژیست های آموزش های را مشخص کرد. همچنین، در این دوره وسایل سمعی و بصری به نام وسایل آموزشی( نه وسایل کمک آموزشی) در داخل یک سیستم بزرگ تر آموزشی قرار گرفت و بدین ترتیب تکنولوژی ابزارهای آموزشی در شکم تکنولوژی قوی تر و تازه ای به نام تکنولوژی سیستم ها فرو رفت.

  • Sajjad Rezaei
  • ۰
  • ۰

EMC Announces Next-Generation VNX – Takes It Full Multicore

Today EMC announced the availability of the next generation of their VNX unified storage platform, previously codenamed “Rockies”. The new platform — actually available for purchase for the past month or so — which some are calling “VNX2”, offers a significant performance increase over the previous generation. Rather than VNX2, EMC refers to this generation as “MCx”, which stands forr “Multi-Core Optimized”.

Virtualization as a Storage Driver

EMC has seen the greatest growth in the VNX line in its use as an engine for server virtualization. With the hyper-consolidation that server virtualization technology like VMware vSphere allows for,, storage arrays become aggregators for tens, hundreds, and even thousands of virtual machines.

Designing storage for virtual environments isn’t always easy.

It can be difficult to plan for the simultaneous capacity and performance needs of the VMs. Many storage arrays are either capacity-optimized (EMC Isilon, for example) or performance-optimized (all-Flash arrays, for example), but virtualization environments need both.

Let’s look at some assumptions. Assuming that the average VM will use 100GB of space, and require anywhere from 50 to 100 IOPS, if you want to support 1,000 VMs on a single array, it will need to have 100TB of usable capacity while being able to sustain a 100,000 IOPS load at low latency. Want to support even more VMs? Your requirements grow as well. There aren’t a lot of arrays out there today that can meet these needs.

The Multicore Difference

To meet these needs, EMC redesigned its array software from the ground up. The new VNX’s use the Intel Sandybridge CPUs. With the ability to grow to 8 cores per socket, and support for 40 lanes of PCIe G3 per socket, there’s a lot of processing power and I/O bandwidth available — if one can take advantage of it.

In the previous VNX, tasks got spread across cores, but it was still one task per core — not the most efficient use of the CPU resources available. What EMC has done with MCx is to rewrite the core OSS functions to use massive hyperthreading, giving them the ability to make the most advantage of the multicore architecture.

You can get a sense for the difference in the graphic below. The left-hand side shows how tasks get spread across cores in the pre-MCx VNX, while the right-hand side shows how MCx handles processing.

MCx Multicore Optimization

Performance

As you might expect, hyperthreading in this fashion affects the overall performance of the array, giving it a huge boost. Compared to the previous VNX, the MCx version offers:

  • 6.3 X better caching
  • 4.9 X more file IOPS
  • 5.2 X more database transactions (on block storage)

Just providing a high number of IOPS isn’t enough, though — you also want to minimize latency. By using a combination of hyperthreading and caching algorithms, the MCx version of the VNX can provide sub-millisecond response time while under extremely high loads.

MCx Performance ComparisonCapacity

Since I’ve spoken to performance, let me briefly address capacity.

The new VNXs will support greater capacity than the previous version, mostly by supporting a higher maximum number of disk drives. However, that’s not all. The new generation adds block-based data deduplication as a background post-process job, giving the arrays an even higher effective capacity.

The Models

The new VNX models 5200540056005800, and 7600 will replace the current 5100530055005700, and 7500, respectively. Additionally, EMC is introducing the new “monster” in the family, the VNX8000. The 8000 will max out at 1,500 disk drives, 32 cores, and 256GB of RAM.

To go back to the earlier virtual machine assumptions (100GB of disk space and 100 IOPS per VM), the new models can provide the following support:

And that’s all with thin provisioning turned on. Turn it off to free up some CPU cycles and the VNX8000 with support up to 8,000 VMs running simultaneously.

As is usual with EMC product launches, the older VNXs are still available and likely to remain so through the end of 2013, when I expect new ones to no longer be available for sale, although they’ll remain supported.

There is also talk of an MCx version of the VNXe (the VNX’s little brother), but that won’t be coming until 2014.

Specifications

Here’s a quick summary chart comparing the new models:

New VNX SpecificationsAll drive access is via dual 6GB SAS 2.0 connections. Standard EMC SSD and HDD drives are supported in both 2.5″ and 3.5″ form factors. The HDDs supported include 15k, 10k, and 7.2k RPM drives. At this time, the largest drive supported is the 7.2k RPM 3TB drives. I expect that VNX will follow Isilon and offer support for 4TB drives in the future.

Availability

All of the new VNX models, with the exception of the VNX5200, have actually been available for purchase for the last month or so. (Yes, this product went GA before it was publicly announced…) The 5200 is expected to be available in Q4 of this year. To make up for its delay, EMC is offering some special promotional pricing on the next-up model, the VNX5400.

The VNX8000, while available today, is not yet available at full capacity. It initially supports a maximum of 1,000 drives and a maximum raw capacity of 3,000TB. I anticipate that a point release of the array’s OS will give it the full 1,500-drive support.

  • Sajjad Rezaei
  • ۰
  • ۰


بررسی استوریج EMC VNX5200

EMC's VNX5200 storage controller is the entry point for the company's VNX2 offerings and features block storage with optional file and unified storage functionality. The VNX5200 can manage up to 125x 2.5-inch or 3.5-inch SAS and NL-SAS hard drives and SSDs and is built with EMC's MCx multicore architecture. Kevin O'Brien, Director of the StorageReview Enterprise Test Lab, recently traveled to EMC's data center in Hopkinton, MA for some hands-on time and benchmarks of the VNX5200.

 

In September of last year, EMC updated their popular VNX line of unified storage arrays with significant hardware enhancements. The result was the VNX2 lineup, with enhancements like a move from PCIe 2.0 to PCIe 3.0 and the new MCx architecture (encompassing multicore RAID, multicore cache, and multicore FAST Cache) to take better advantage of multiple CPU cores in the storage processors.

Many of these enhancements focus on enabling the VNX platform to make better use of flash at a time when storage administrators continue to move towards hybrid array configurations. According to EMC, nearly 70% of VNX2 systems are now shipping in hybrid flash configurations, a shift that has also placed more importance on the role of EMC's FAST suite for caching and tiering.

 

While the smaller VNXe3200 that we previously reviewed has also been updated with VNX2 technologies, the VNX5200 is designed for midmarket customers who need a primary storage system at their headquarters and for remote/branch office needs that are more robust than what the VNXe3200 can handle. The VNX5200 can be configured for block, file, or unified storage and utilizes a 3U, 25x 2.5-inch EMC Disk Processor Enclosure (DPE) chassis. The VNX5200’s storage processor units incorporate a 1.2GHz, four-core Xeon E5 processor with 16GB of RAM and can manage a maximum of 125 drives with FC, iSCSI, FCoE and NAS connectivity.

 

The VNX2 family also currently includes five storage systems designed for larger scales than the VNXe3200 and the VNX5200.

  • VNX5400: Up to 1PB of raw capacity across 250 drives, up to 1TB of SSD FAST Cache, and up to 8 UltraFlex I/O modules per array
  • VNX5600: Up to 2PB of raw capacity across 500 drives, up to 2TB of SSD FAST Cache, and up to 10 UltraFlex I/O modules per array
  • VNX5800: Up to 3PB of raw capacity across 750 drives, up to 3TB of SSD FAST Cache, and up to 10 UltraFlex I/O modules per array
  • VNX7600: Up to 4PB of raw capacity across 1,000 drives, up to 4.2TB of SSD FAST Cache, and up to 10 UltraFlex I/O modules per array
  • VNX8000: Up to 6PB of raw capacity across 1,500 drives, up to 4.2TB of SSD FAST Cache, and up to 22 UltraFlex I/O modules per array

 

VNX5200 block storage is powered by dual VNX Storage Processors with a 6Gb SAS drive topology. A VNX2 deployment can use one or more Data Movers and a controller unit to offer NAS services. Like other members of the VNX series, the VNX5200 uses UltraFlex I/O modules for the both its Data Movers and the block storage processors.  The VNX5200 supports up to three Data Movers and a maximum of three UltraFlex modules per Data Mover.

MCx Multi-Core Functionality

VNX predates widespread multicore processor technology, and prior generations of the platform were not built on a foundation that could leverage dynamic CPU scaling. FLARE, the VNX1 and CLARiiON CX operating environment, did allow services including RAID to be run on a specific CPU core, but FLARE’s single-threaded paradigm meant that many core functions were bound to the first CPU core. For example, all incoming I/O processes were handled by Core 0 before being delegated to other cores, leading to bottleneck scenarios.

MCx implements what EMC characterizes as horizontal multicore system scaling, which allows all services to be spread across all cores. Under this new architecture available on both VNX2 and the VNXe3200, incoming I/O processes are less likely to become bottlenecked because, for example, front-end Fibre Channel ports can be evenly distributed among several processor cores. MCx also implements I/O core affinity through its concept of preferred cores. Every port, front-end and back-end, has both a preferred core and an alternate core assignment. The system services host requests with the same front-end core where the requests originated in order to avoid swapping cache and context between cores.

A major advantage of the new MCx architecture is support for symmetric active/active LUN, which enables hosts to access LUNs simultaneously via both Storage Processors in the array. Unlike with FLARE’s asymmetric implementation, symmetric active/active mode allows both SPs to write directly to the LUN without the need to send updates to the primary Storage Processor.

At present, VNX2 systems support symmetric active/active access for classic RAID group LUNs, but do not support active/active for private pool LUNs which instead can make use of asymmetric active/active mode. Private pool LUNs or “Classic LUNs” cannot currently make use of symmetric active/active mode if they use Data Services other than the VNX RecoverPoint splitter.

One of the VNX5200’s compelling synergies between the MCx architecture and flash media storage is the system's support for the EMC FAST Suite, which allows administrators to take advantage of flash storage media to increase array performance across heterogeneous drives. The FAST Suite combines two approaches for using flash to accelerate storage performance – caching and tiering – into an integrated solution. VNX2 updates to the FAST Suite include four times better tiering granularity and support for new eMLC flash drives.

VNX FAST Cache allows up to 4.2TB of SSD storage to be utilized in order to serve highly active data and dynamically adjust to workload spikes, although the upper cache size limit of the VNX5200 is 600GB.  As data ages and becomes less active over time, FAST VP tiers the data from high-performance to high-capacity drives in 256MB increments based on administrator-defined policies.

EMC VNX5200 Specifications

  • Array Enclosure: 3U Disk Processor Enclosure
  • Drive Enclosures:
  • Max SAN Hosts: 1,024
  • Min/Max Drives: 4/125
  • Max FAST Cache: 600GB
  • CPU/Memory per Array: 2x Intel Xeon E5-2600 4-Core 1.2GHz/32GB
  • RAID: 0/1/10/3/5/6
  • Max Raw Capacity: 500TB
  • Protocols: FC, FCoE, NFS, CIFS, iSCSI,
  • Storage Types: Unified, SAN, NAS, Object
  • Drive Types: Flash SSD, SAS, NL-SAS
  • Capacity Optimization: Thin Provisioning, Block Deduplication, Block Compression, File-Level Deduplication and Compression
  • Performance: MCx, FAST VP, FAST Cache
  • Management: EMC Unisphere
  • Virtualization Support: VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
  • Max Block UltraFlex I/O Modules per Array: 6
  • Max Total Ports per Array: 28
  • 2/4/8Gb/s FC Max Ports per Array: 24
  • 1GBASE-T iSCSI Max Total Ports per Array: 16
  • Max FCoE Ports Per Array: 12
  • 10GbE iSCSI Max Total Ports per Array: 12
  • Control Stations: 1 or 2
  • Max Supported LUNs: 1,000 (Pooled)
  • Max LUN Size: 256TB (Virtual Pool LUN)
  • Max File System Size: 16TB
  • Number of File Data Movers: 1, 2 or 3
  • CPU/Memory per Data Mover: Intel Xeon 5600/6GB
  • UltraFlex I/O Expansion Modules for Block:
  • UltraFlex I/O Expansion Modules for File:
  • 2.5-inch SAS/Flash (2U), 25 drives
  • 3.5-inch SAS/Flash (3U), 15 drives
  • 4-Port 2/4/8Gb/s Fibre Channel
  • 4-Port 1Gb/s (copper) iSCSI
  • 2-Port 10Gb/s (optical) iSCSI
  • 2-Port 10GBASE-T (copper) iSCSI
  • 2-Port 10GbE (optical or twinax) FCoE
  • 4-Port 1GBASE-T
  • 4-Port 1GBASE-T and 1GbE (optical)
  • 2-Port 10GbE (optical)
  • 2-Port 10GBASE-T (copper)

Design and Build

In VNX terminology, a storage deployment consists of several integrated rack components. The controller component is either a Storage-Processor Enclosure (SPE) which does not incorporate drive bays, or as with this VNX5200, a Disk-Processor Enclosure (DPE) which does provide internal storage. VNX Disk Array Enclosures (DAEs) can be used to incorporate additional storage capacity.

 

An SPE incorporates the VNX storage processors in addition to dual SAS modules, dual power supplies, and fan packs. Disk-Processor Enclosures (DPEs) include an enclosure, disk modules, storage processors, dual power supplies, and four fan packs. Adding additional storage through the use of DAEs can be done through the use of either 15x 3.5-inch, 25x 2.5-inch, or 60x 3.5-inch drive bays with dual SAS link control cards and dual power supplies.

 

Whether they are part of a storage-processor enclosure or a disk-processor enclosure, VNX storage processors provide data access to external hosts and bridge the array’s block storage with optional VNX2 file storage functionality. The VNX5200 can take advantage of a variety of EMC's UltraFlex IO Modules to customize its connectivity.

UltraFlex Block IO Module Options:

  • Four-port 8Gb/s Fibre Channel module with optical SFP and OM2/OM3 cabling to connect to an HBA or FC switch.
  • Four-port 1Gb/s iSCSI module with a TCP offload engine and four 1GBaseT Cat6 ports.
  • Two-port 10Gb/s Opt iSCSI Module with a TCP offload engine, two 10Gb/s Ethernet ports, and an  SFP+ optical connection or an twinax copper connection to an Ethernet switch.
  • Two-port 10GBaseT iSCSI module with a TCP offload engine and two 10GBaseT Ethernet ports
  • Two-port 10GbE FCoE module with two 10Gb/s Ethernet ports and an SFP+ optical connection or a twinax copper connection
  • Four-port 6Gb/s SAS V2.0 module for backend connectivity to VNX Block Storage Processors. Each SAS port has four lanes per port at 6Gb/s for 24Gb/s nominal throughput. This module is designed for PCIe 3 connectivity and can be configured as 4x4x6 or 2x8x6.

In order to configure the VNX5200 for file storage or unified storage, it must be used in tandem with one or more Data Mover units. The VNX Data Mover Enclosure (DME) is 2U in size and houses the Data Movers. Data Movers use 2.13GHz, four-core Xeon 5600 processors with 6GB RAM per Data Mover and can manage a maximum storage capacity of 256TB per Data Mover. The data mover enclosure can operate with one, two, or three Data Movers.

 

Control Stations are 1U in size and provide management functions to the Data Movers, including controls for failover. A Control Station can be deployed with a secondary Control Station for redundancy. UltraFlex File IO Module options include:

  • Four-port 1GBase-T IP module with four RJ-45 ports for Cat6 cables
  • Two-port 10GbE Opt IP module with two 10Gb/s Ethernet ports and a choice of an SFP+ optical connection or a twinax copper connection to an Ethernet switch
  • Two-port 10 GBase-T IP module with copper connections to an Ethernet switch
  • Four-port 8Gb/s Fibre Channel Module with optical SFP and OM2/OM3 cabling to connect directly to a captive array and to provide an NDMP tape connection

Management and Data Services

The VNX family uses EMC’s Unisphere management software. Our overall impression of Unisphere is that it offers a clean and well-organized interface that will be accessible to IT generalists while also allowing experienced storage administrators to access the system's full functionality.

Unisphere incorporates snapshot functionality that includes configuration options for an auto-delete policy that deletes snapshots either (1) after a specified amount of time or (2) once snapshot storage space exceeds a specified percentage of storage capacity. VNX snapshots can make use of EMC’s thin provisioning and redirect on write technologies to improve the speed and reduce storage requirements for stored snapshots.

VNX uses block and file compression algorithms designed for relatively inactive LUNs and files, allowing both its compression and deduplication operations to be conducted in the background with reduced performance overhead. VNX’s fixed-block deduplication is built with 8KB granularity for scenarios like virtual machine, virtual desktop, and test/development environments with much to gain from deduplication. Deduplication can be set at the pool LUN level, and thin, thick and deduplicated LUNs can be stored in a single pool.

Unisphere Central provides centralized multi-box monitoring for up to thousands of VNX and VNXe systems, for example systems deployed in remote and branch offices. The Unisphere suite also includes VNX Monitoring and Reporting software for storage utilization and workload patterns in order to facilitate problem diagnosis, trend analysis, and capacity planning.

In virtualized environments, the VNX5200 can deploy EMC’s Virtual Storage Integrator for VMware vSphere 5 for provisioning, management, cloning, and deduplication. For VMware, the VNX5200 offers API integrations for VAAI and VASA, and in Hyper-V environments it can be configured for Offloaded Data Transfer and Offload Copy for File. The EMC Storage Integrator offers provisioning functionality for Hyper-V and SharePoint. EMC Site Recovery Manager software can manage failover and failback in disaster recovery situations as well.

 

VNX2 arrays from the VNX5200 through the VNX8000 offer EMC’s new controller-based data at rest encryption, named D@RE, which encrypts all user data at the drive level. D@RE uses AES 256 encryption and is pending validation for FIPS-140-2 Level 1 compliance. New D@RE-capable VNX arrays ship with the encryption hardware included, and existing VNX2 systems can be field-upgraded to support D@RE and non-disruptively encrypt existing storage as a background task.

 

D@RE encrypts all data written to the array using a regular data path protocol with a unique key per disk. If drives are removed from the array for any reason, information on the drive is unintelligible. D@RE also incorporates crypto-erase functionality because its encryption keys are deleted when a RAID group or storage pool is deleted.

VNX2 offers mirrored write cache functionality, where each storage processor contains both primary cached data for its LUNs and a secondary copy of the cache for the peer storage processor. RAID levels 0, 1, 1/0, 5, and 6 can coexist in the same array and the system’s proactive hot sparing function further increases data protection. The system uses integrated battery backup units to provide cache de-staging and other considerations for an orderly shutdown during power failures.

Local protection is available through Unisphere’s point-in-time snapshot feature, and continuous data protection is available via RecoverPoint local replication. EMC’s VPLEX can be used to extend continuous availability within and across data centers. According to EMC, it used television DVRs as an inspiration for its RecoverPoint Continuous Remote Replication software.

Replication Manager and AppSync provide application-consistent protection with EMC Backup and Recovery solutions including Data Domain, Avamar, and Networker to shorten the backup windows and recovery times.

Testing Background and Storage Media

We publish an inventory of our lab environment, an overview of the lab's networking capabilities, and other details about our testing protocols so that administrators and those responsible for equipment acquisition can fairly gauge the conditions under which we have achieved the published results. To maintain our independence, none of our reviews are paid for or managed by the manufacturer of equipment we are testing.

The EMC VNX5200 review stands out as a rather unique testing approach compared to how we usually evaluate equipment. In our standard review process the vendor ships us the platform, which we then connect to our fixed testing platforms for performance benchmarks. With the VNX5200, the size and complexity, as well as initial setup caused us to change this approach and fly our reviewer and equipment to EMC's lab. EMC prepared a VNX5200 with the equipment and options necessary for iSCSI and FC testing. EMC supplied their own dedicated 8Gb FC switch, while we brought one of our Mellanox 10/40Gb SX1024 switches for Ethernet connectivity. To stress the system we leveraged an EchoStreams OSS1A-1U server, exceeding the hardware specifications of what we use in our traditional lab environment.

EchoStreams OSS1A-1U Specifications:

  • 2x Intel Xeon E5-2697 v2 (2.7GHz, 30MB Cache, 12-cores)
  • Intel C602A Chipset
  • Memory - 16GB (2x 8GB) 1333MHz DDR3 Registered RDIMMs
  • Windows Server 2012 R2 Standard
  • 2x Mellanox ConnectX-3 dual-port 10GbE NIC
  • 2x Emulex LightPulse LPe16002 Gen 5 Fibre Channel (8GFC, 16GFC) PCIe 3.0 Dual-Port HBA
  • Boot SSD: 100GB Micron RealSSD P400e

 

Our evaluation of the VNX5200 will compare its performance in synthetic benchmarks across five configurations that reflect how EMC customers deploy VNX2 systems in a production setting. Each configuration leveraged 8 LUNs measuring 25GB in size.

  • A RAID10 array composed of SSD media with Fibre Channel connectivity
  • A RAID10 array composed of SSD media with iSCSI connectivity
  • A RAID6 array composed of 7k HDD media with Fibre Channel connectivity
  • A RAID5 array composed of 10k HDD media with Fibre Channel connectivity
  • A RAID5 array composed of 15k HDD media with Fibre Channel connectivity.

Each configuration incorporated 24 drives and used RAID configurations most common with their deployment in a production setting.

 

Enterprise Synthetic Workload Analysis

Prior to initiating each of the fio synthetic benchmarks, our lab preconditions the device into steady state under a heavy load of 16 threads with an outstanding queue of 16 per thread. Then the storage is tested in set intervals with multiple thread/queue depth profiles to show performance under light and heavy usage.

Preconditioning and Primary Steady-State Tests:

  • Throughput (Read+Write IOPS Aggregated)
  • Average Latency (Read+Write Latency Averaged Together)
  • Max Latency (Peak Read or Write Latency)
  • Latency Standard Deviation (Read+Write Standard Deviation Averaged Together)

This synthetic analysis incorporates four profiles which are widely used in manufacturer specifications and benchmarks:

  • 4k random - 100% Read and 100% Write
  • 8k sequential - 100% Read and 100% Write
  • 8k random - 70% Read/30% Write
  • 128k sequential - 100% Read and 100% Write

After being preconditioned for 4k workloads, we put the VNX5200 through our primary tests. As such, when configured with SSDs and accessed via Fibre Channel, it posted 80,472 IOPS read and 33,527 IOPS write. Using the same SSDs in RAID10 (though this time using our iSCSI block-level test), the VNX5200 achieved 37,421 IOPS read and 22,309 IOPS write. Switching to 15K HDDs in RAID5 using Fibre Channel connectivity showed 12,054 IOPS read and 3,148 IOPS write, while the 10K HDD configuration hit 7,688 IOPS read and 2,835 IOPS write. When using 7K HDDs in a RAID6 configuration of the same connectivity type, the VNX5200 posted 4,390 IOPS read and 1,068 IOPS write.

 

Results were much of the same in average latency. When configured with SSDs in RAID10 and using a Fibre Channel connectivity, it showed 3.18ms read and 7.63ms write. Using the same SSDs with our iSCSI block-level test, the VNX5200 boasted 6.84ms read and 11.47me write. Switching to 15K HDDs in RAID5 using Fibre Channel connectivity showed 21.23ms read and 81.31ms write in average latency, while the 10K HDD configuration posted 33.29ms read and 90.31ms write. When switching to 7K HDDs in a RAID6 configuration of the same connectivity type, the VNX5200 posted 58.29ms read and 239.64ms write.

 

Next, we move to our maximum latency benchmark. When configured with SSDs in RAID10 and using our iSCSI block-level test, it showed 197ms read and 421.8ms write. Using the same SSDs, though this time with Fibre Channel connectivity, the VNX5200 boasted 202.1ms read and 429.2ms write. Switching to 15K HDDs in RAID5 using Fibre Channel connectivity recorded 1,311.3ms read and 1,199.2ms write for maximum latency, while the 10K HDD configuration posted 2,687.8ms read and 2,228.1ms write. When switching to 7K HDDs in a RAID6 configuration of the same connectivity type, the VNX5200 posted 3,444.8ms read and 2,588.4ms write.

 

Our last 4K benchmark is standard deviation, which measures the consistency of the VNX5200's performance. When configured with SSDs in RAID10 using our iSCSI block-level test, the VNX5200 posted 3.30ms read and 12.06ms write. Using the same SSDs with Fibre Channel connectivity shows 9.20ms read and 14.32ms write. Switching to 15K HDDs in RAID5 with Fibre Channel connectivity recorded 25.93ms read and 120.53ms write, while the 10K HDD configuration posted 35.37ms read and 175.66ms write. When using 7K HDDs RAID6 configuration of the same connectivity type, the VNX5200 posted 52.75ms read and 254.55ms write.

 

Our next benchmark uses a sequential workload composed of 100% read operations and then 100% write operations with an 8k transfer size. Here, the VNX5200 posted 178,959 IOPS read and 76,022 IOPS write when configured with 10K HDDs in RAID5 Fibre Channel connectivity. Using 15K HDDs in RAID5 with Fibre Channel connectivity shows 176,895 IOPS read and 77,505 IOPS write. Switching to SSDs in RAID10 using a Fibre Channel connectivity recorded 169,833 IOPS read and 74,470 IOPS write, while the SSD iSCSI block-level test showed 69,303 IOPS read and 40,379 IOPS write. When using 7K HDDs in a RAID6 configuration with Fibre Channel connectivity, the VNX5200 posted 75,982 IOPS read and 76,122 IOPS write.

 

Our next series of workloads are composed of a mixture of 8k read (70%) and write (30%) operations up to a 16 Threads 16 Queue, our first being throughput. When configured with SSDs in RAID10 using Fibre Channel connectivity, the VNX5200 posted a range of 8,673 IOPS to 41,866 IOPS by 16T/16Q. Using the same SSDs during our iSCSI block-level test shows a range of 6,631 IOPS to 28,193 IOPS. Switching to 15K HDDs in RAID5 with Fibre Channel connectivity recorded a range of 1,204 IOPS and 6,411 IOPS, while the 10K HDD configuration posted 826 IOPS and 5,113 IOPS by 16T/16Q. When using 7K HDDs RAID6 configuration of the same connectivity type, the VNX5200 posted a range of 267 IOPS to 2,467 IOPS.

 

Next, we looked at average latency. When configured with SSDs in RAID10 using Fibre Channel connectivity, the VNX5200 posted a range of 0.45ms to 6.11ms by 16T/16Q. Using the same SSDs during our iSCSI block-level test shows a range of 0.59ms to 9.07ms. Switching to 15K HDDs in RAID5 with Fibre Channel connectivity recorded a range of 3.31ms and 39.89ms, while the 10K HDD configuration posted 4.83ms initially and 49.97ms by 16T/16Q. When using 7K HDDs RAID6 configuration of the same connectivity type, the VNX5200 posted a range of 14.93ms to 103.52ms.

 

Taking a look at its maximum latency results, when configured with SSDs in RAID10 using Fibre Channel connectivity, the VNX5200 had a range of 27.85ms to 174.43ms by 16T/16Q. Using the same SSDs during our iSCSI block-level test shows a range of 31.78ms to 134.48ms in maximum latency. Switching to 15K HDDs in RAID5 with Fibre Channel connectivity recorded a range of 108.48ms and 2,303.72ms, while the 10K HDD configuration showed 58.83ms and 2,355.53ms by 16T/16Q. When using 7K HDDs RAID6 configuration of the same connectivity type, the VNX5200 posted a maximum latency range of 82.74ms to 1,338.61ms.

 

Our next workload analyzes the standard deviation for our 8k 70% read and 30% write operations. Using SSDs in RAID10 using Fibre Channel connectivity, the VNX5200 posted a range of just 0.18ms to 10.83ms by 16T/16Q. Using the same SSDs during our iSCSI block-level test shows a similar range of 0.21ms to 11.54ms in latency consistency. Switching to 15K HDDs in RAID5 with Fibre Channel connectivity recorded a range of 3.48ms to 56.58ms, while the 10K HDD configuration showed 2.5ms initially and 66.44ms by 16T/16Q. When using 7K HDDs RAID6 configuration of the same connectivity type, the VNX5200 posted a standard deviation range of 7.98ms to 110.68ms.

 

Our final synthetic benchmark made use of sequential 128k transfers and a workload of 100% read and 100% write operations. In this scenario, the VNX5200 posted 2.84GB/s read and 1.26GB/s write when configured with SSDs using our iSCSI block-level test. Using 15K HDDs in RAID5 with Fibre Channel connectivity shows 2.48GB/s read and 2.33GB/s write. Switching back to SSDs in RAID10 (this time using a Fibre Channel connectivity) it recorded 2.48GB/s read and 3.06GB/s write. When using 7K HDDs in a RAID6 configuration with Fibre Channel connectivity, the VNX5200 posted 2.47GB/s read and 2.68GB/s write while the 10K HDD configuration posted 2.47GB/s read and 3.22GB/s write.

 

Conclusion

EMC's VNX ecosystem is well established in the enterprise storage market, but VNX2 reflects the company's willingness to completely overhaul the VNX architecture in order to make the most of advances in processor, flash, and networking technologies. Much like the VNXe3200, which is oriented towards smaller deployments, the VNX5200 also demonstrates that EMC is paying attention to midmarket firms and remote/branch offices which may not be able to justify the expense of the larger systems in the VNX family but still want all of the enterprise benefits.

 

Used in conjunction with the FAST Suite, the VNX5200 is able to offer flash caching and tiering in tandem, a combination against which EMC's peers have trouble competing. In our testing we broke out the common tiers and configurations of storage to illustrate with a limited test suite just what users can expect from the 5200. Tests covered 7K HDD on up to SSDs, illustrating the flexibility the system has, delivering capacity, performance, or both over a variety of interface options.

Ultimately the VNX2 platform can handle just about anything thrown its way; and it's that flexibility that wins EMC deals on a daily basis. Given the blend of storage options, IO modules and NAS support the systems are able to manage against almost everything an organization could need. Of course there are use cases that go beyond the 5200 we tested here. The VNX family scales up quite a bit (and down some too with the VNXe3200) to address these needs be it with more compute power, flash allotment or disk shelves.

Pros

  • A variety of connectivity options via UltraFlex I/O modules
  • Configurations that support block, file, and unified storage scenarios
  • Access to the robust VNX ecosystem of administrative tools and third-party integrations

Cons

  • Maximum of 600GB of FAST Cache

Bottom Line

The EMC VNX5200 is a key entry in a their new wave of unified storage arrays that are architected to take advantage of flash storage, multi-core CPUs and modern datacenter network environments. Its affordability, flexibility in configuration, and access to VNX2 management software and third-party integrations makes for a formidable overall package for the midmarket.

  • Sajjad Rezaei
  • ۰
  • ۰

HPE ProLiant DL380 Gen9 Server

What is your server bottleneck...storage, processing, expansion? The world’s best-selling server1 just got better. The HPE ProLiant DL380 Gen9 Server delivers the latest performance and expandability.. Reliability, serviceability and near continuous availability, backed by a comprehensive warranty, makes it ideal for any server environment. Deploy the data center standard. Designed to reduce costs and complexity, leveraging Intel’s latest E5-2600 v4 processors with 21%2 performance gain, plus the latest HPE 2400 MHZ DDR4 SmartMemory supporting 3.0 TB and up to 23%3 performance increase. Supporting 12 Gb/s SAS, 40 Gb NIC with broad range compute options. HPE Persistent Memory, the world’s first NVDIMM optimized on ProLiant, offering unprecedented levels of performance for databases and analytic workloads. Run everything from the most basic to mission critical applications, and can be deployed with confidence.

What's new

  • New higher capacity HDD options
  • New GPU options
  • Enhanced NIC offering
  • Support for Microsoft Windows Server 2016

Features

Flexible Design Makes Your Investment "Future Proof" so it Can Grow as Your Business Needs Expand

The HPE ProLiant DL380 Gen9 Server has a flexible redesigned chassis, including new HPE Universal Media Bay configuration options with 8 to 24 SFF and 4 or 12 LFF drive options along with NVMe options and additional rear drive support for expandability and investment protection.

HPE Persistent Memory, the first Non-volatile DIMM (NVDIMM) optimized on HPE ProLiant, offering unprecedented levels of performance and data resiliency for databases and analytic workloads.

In conjunction with the embedded SATA HPE Dynamic Smart Array B140i Controller for boot, data and media needs, the redesigned HPE Flexible Smart Array and HPE Smart SAS HBA Controllers allow you the flexibility to choose the optimal 12 Gb/s controller most suited to your environment.

You have a choice of embedded 4x1GbE, HPE FlexibleLOM or PCIe standup 1GbE to 40GbE Adapters provide you flexibility of networking bandwidth and fabric so you can adapt and grow to changing business needs.

World-class Performance and Industry-leading Energy Efficiency

The HPE ProLiant DL380 Gen9 Server supports industry standard Intel® Xeon® E5-2600 v3 and E5-2600 v4 processors with up to 22 cores, 12G SAS and 3.05 TB of HPE DDR4 SmartMemory.3

High efficiency redundant HPE Flexible Slot Power Supplies provide up to 96% efficiency (Titanium), HPE Flexible Slot Battery Backup module and support for the HPE Power Discovery Services offering.

Improved ambient temperature standards with HPE Extended Ambient Operating Support (ASHRAE A3 and A4) and optional performance heatsinks help to reduce cooling costs.4

Enhanced performance with active and passive, single and double-wide GPU support for workload acceleration.

Agile Infrastructure Management for Accelerating IT Service Delivery

With HPE ProLiant DL380 Gen9 Server, HPE OneView provides infrastructure management for automation simplicity across servers, storage and networking.

Online personalized dashboard for converged infrastructure health monitoring and support management with HPE Insight Online.

Configure in Unified Extensible Firmware Interface (UEFI) boot mode, provision local and remote with Intelligent Provisioning and Scripting Toolkits.

Embedded management to deploy, monitor and support your server remotely, out of band with HPE iLO.

Optimize firmware and driver updates and reduce downtime with Smart Update, consisting of SUM (Smart Update Manager) and SPP (Service Pack for ProLiant).

Industry Leading Serviceability

The HPE ProLiant DL380 Gen9 Server comes with a complete set of HPE Technology Services, delivering confidence, reducing risk and helping customers realize agility and stability. HPE provides consulting to transform your infrastructure; services to deploy, migrate and support your ProLiant Servers.

Hewlett Packard Enterprise provides consulting advice to transform and modernize your infrastructure; services to deploy, migrate and support your new ProLiant servers and education to help you succeed quickly.

 

Technical Specifications

Processor family

  • Intel® Xeon® E5-2600 v3 product family
  • Intel® Xeon® E5-2600 v4 product family

Number of processors

  • 1 or 2

Processor core available

  • 22 or 20 or 18 or 16 or 14 or 12 or 10 or 8 or 6 or 4

Processor cache

  • 10MB L3
  • 15MB L3
  • 20MB L3
  • 25MB L3
  • 30MB L3
  • 35MB L3
  • 40MB L3
  • 45MB L3
  • 50MB L3
  • 55MB L3

Processor speed

  • 3.5GHz

Form factor (fully configured)

  • 2U

Form factor chassis

  • Rack

Power supply type

  • (2) Flex Slot

Expansion slots

  • (6) Maximum - For detail descriptions reference the QuickSpec

Memory, maximum

  • 3.0TB
  • With 128 GB DDR4

Memory slots

  • 24 DIMM slots

Memory type

  • DDR4 SmartMemory

System fan features

  • Hot plug redundant standard

Graphic card

  • Choice of up to 2 double wide GPGPU's, or 3 single wide GPGPU's

Network controller

  • 1Gb 331i Ethernet Adapter 4 Ports per controller and/or
  • Optional FlexibleLOM
  • Depending on model

Storage controller

  • (1) Dynamic Smart Array B140i and/or
  • (1) Smart Array P440ar
  • (1) Smart Array P840
  • Depending on model

Infrastructure management

  • iLO Management (standard), Intelligent Provisioning (standard), iLO Advanced (optional), HP Insight Control (optional)

Warranty

  • 3/3/3 - Server Warranty includes three years of parts, three years of labor, three years of onsite support coverage. Additional information regarding worldwide limited warranty and technical support is available at: http://h18004.www1.hpe.com/products/servers/platforms/warranty/index.html Additional HPE support and service coverage for your product can be purchased locally. For information on availability of service upgrades and the cost for these service upgrades, refer to the HPE website at http://www.hpe.com/support
  • Sajjad Rezaei
  • ۰
  • ۰

HPE ProLiant ML10 Generation9 Gen9

Are you searching for an entry-level server solution with performance and reliability for your valuable data to replace a standard desktop unit? The HPE ProLiant ML10 Gen9 Server provides server level performance in a quiet, compact size that is easy to deploy in your home or your small business. It’s affordable price will drive you to your first server to replace previous workstation solutions. The expandability helps to deliver the required workloads and the performance will decrease potential data loss. As the lowest acquisition cost 1P tower in the Hewlett Packard Enterprise server family, the ML10 Gen9 Server is the right choice for your first server.
Features
Low Acquisition Cost with Server Level Performance
The HPE ProLiant ML10 Gen9 Server offers the right server technology for home or small businesses looking for performance and features at an affordable price.
Embedded Intel® AMT Management module with remote console, Web browser GUI and remote power on/off.
Intel chipset supports RSTe SATA RAID disk drives to improve the performance for workloads.
Efficiency and Expandability to Fit the Needs of Growing, Budget-Conscious Businesses
The HPE ProLiant ML10 Gen9 Server offers expandability with internal support for up to six Large Form Factor (LFF) disk drives and increased I/O expansion.
Configured with the Unified Extensible Firmware Interface (UEFI) boot mode allows provisioning both locally and remotely with either Intelligent Provisioning or Scripting Toolkits.
With the optional HPE H241 Smart Host Bus Adapter your get the flexibility to run in HBA mode or simple RAID mode. When operating in simple RAID mode, it provides RAID 0, RAID 1, and RAID 5 with optional HPE Secure Encryption capabilities.
Workstation Oriented Design for Better Performance
The HPE ProLiant ML10 Gen9 Server graphics processing unit (GPU) supports two single wide and one double wide GPU card to boost performance in graphic and VDI applications for financial services, education, scientific research, and medical imaging.
It supports the Intel Xeon® E3-1200 v5 processor in a 4U chassis offering increased performance and efficiency.
Server class technology allows for 24x7 business operation, offering higher reliability and longer lifecycle.

Technical Specifications
Processor family
• Intel® Xeon® E3-1200 v5 product family
• Intel® Pentium®
• Intel® Core™ i3
Number of processors
• 1
Processor core available
• 2 or 4
Processor cache
• 8MB L3
• 4MB FOR INTEL CORE i3, i5 and i7 use
• 3MB FOR INTEL CORE i3, i5 and i7 use
Processor speed
• 3.9GHz
Form factor (fully configured)
• 4U
Form factor chassis
• Tower
Power supply type
• (1) Multi-output
Expansion slots
• (4) Maximum - For detail descriptions reference the QuickSpecs
Memory, maximum
• 64GB
Memory slots
• 4 DIMM slots
• Maximum
Memory type
• DDR4 UDIMM
Memory protection features
• Unbuffered ECC
Drive description
• (6) LFF SATA
• Non-hot plug, depending on model
System fan features
• Non-hot plug non-redundant
Network controller
• Intel® Ethernet Connection I219-LM 1 Ports per controller
• Depending on model
Storage controller
• Integrated SATA RAID
• Depending on model
Infrastructure management
• Intel® Active Management Technology (Intel® AMT)
Warranty
• 1/1/1 Server Warranty includes one year of parts, one year of labor, one year of onsite support coverage. Additional information regarding worldwide limited warranty and technical support is available at: www.hpe.com/services/support. Additional Hewlett Packard Enterprise support and service coverage for your product can be purchased locally. For information on availability of service upgrades and the cost for these service upgrades, refer to www.hpe.com/services/support

  • Sajjad Rezaei
  • ۰
  • ۰

ایمیل چیست و چگونه کار می کند؟

ایمیل چیست؟


ایمیل سال‌هاست که به یکی از پرکاربردترین ابزار ارتباطی تبدیل شده و سهولت ارسال ایمیل با ارسال نامه از طریق پستی غیرقابل مقایسه است.


از لحاظ لغت Email مرکب از دو واژه E که اول کلمه Electronic (الکترونیک)  و mail به معنای پست است : یعنی پست الکترونیک


شاید تاریخچه اولین ایمیل فرستاده شده در اینترنت به سال 1971 برگردد. وقتی که فردی به نام «روی تاملینسون» (Roy Tomlinson) روشی برای فرستادن پیام از طریق اینترنت و تنها یک کامپیوتر پیدا کرد. او با استفاده از @ نام گیرنده ایمیل را مشخص می‌کرد.


 


به زبان ساده :


در حقیقت فضایی در اینترنت (مشابه صندوق پستی شما در اداره پست یا در ورودی خانه) می باشد که کلید آن فقط در دست شما است .در صورتی که آدرس آن را به دیگران اعلام کنید ، آن ها می توانند با استفاده از Email خود به شما نامه و یا فایلی را بر اساس استانداردهای مشخصی بفرستند. البته واضح است که ایمیل تفاوت هایی نیز با صندوق پستی شما دارد.


مثلا :


از همه جا می توانید به آن دسترسی پیدا کنید ، برای این که نامه یا فایلی بفرستید باید خودتان هم ایمیل داشته باشید و  در قیاس با پست معمولی ، ایمیل تقریبا بلا درنگ به شخص گیرنده می رسد.


آدرس ایمیل شما در واقع شامل دو بخش می باشد که با یک علامت @ از هم جدا می شوند . بخش اول آدرس، نام کاربری شما و بخش دوم سروری است که ایمیل شما بر روی آن قرار گرفته است.


مثلا : ali@Gmail.com می تواند آدرس شخصی به نام ali بر روی سرور Gmail.com باشد.


انواع ایمیل


ایمیل را می توان به دو طریق ایجاد و استفاده نمود


 


از طریق سایتهایی که ایمیل رایگان می دهند مانند yahoo  و Gmailکه مدیریت این ایمیل ها نیز از طریق خود این سایت ها امکان پذیر است .(اینگونه ایمیل ها مورد بحث در مقاله پیش رو نمی باشند)

ایجاد ایمیل های اختصاصی از سایت های اختصاصی .

 


همانطور که قبلاً گفته شد ایمیل از دو بخش تشکیل شده است که توسط علامت @ از هم جدا می شوند :


بخش اول Username وبخش دوم نام سایت ویا دامنه ایی است که ایمیل در آن قرار می گیرد.حروف کوچک وبزرگ در آدرس ایمیل بی تاثیر بوده اما معمولا ً همه حروف را بصورت کوچک می نویسند .در ضمن بین هیچ کدام از حروف وبخش های آدرس ایمیل فاصله ایی وجود ندارد


در ایمیل های اختصاصی ابتدا نیاز است یک Domain  و یک Host خریداری شود .


Domain: نامی است که در تمام اینترنت منحصر بفرد بوده و شما مالک آن هستید.


Host: فضایی است که با نام Domain مرتبط شده است .یعنی زمانی که شما می خواهید به این فضا دسترسی داشته باشید می بایست از نام Domain استفاده کنید (نام Domain  نیز با یک IP Valid مرتبط شده است).


هر Host بسته به شرکت فروشنده آن محدود به تعداد مشخصی ایمیل می شود .یعنی بر اساس فضایی که خریداری می شود امکان تعریف تعداد محدودی ایمیل برای کاربران فراهم می شود .


نوع دیگری از ایمیل های اختصاصی وجود دارند که کاربر می تواند از یک شرکت مشخص که قبلا پیش نیاز های فوق را تهیه کرده است یک آدرس ایمیل خریداری کند .


تعریف پروتکل ها و پورت های ایمیل


پروتکل های ارسال ایمیل را می توان در 3 پروتکل زیر تعریف نمود :


Simple Mail Transfer Protocol): SMTP (


پروتکل ارسال ایمیل از طریق اینترنت ( و یا شبکه های مبتنی بر IP ) می باشد .در حقیقت زمانی که شما آدرس outgoing mail server   را در کامپیوتری که نرم افزار های ایمیل کلاینت(Microsoft Outlook, Outlook express) دارند می خواهید Set  کنید ،آدرس SMTP Server را می دهید .


POP3 : Post Office Protocol Version 3) (


پروتکل POP   یا Post Office Protocol یکی از پروتکل های لایه Application در مدل TCP/IP می باشد که در Email Client ها جهت دریافت کردن ایمیل مورد استفاده قرار می گیرد .این پروتکل ایمیل ها را از سرور های Remote دریافت کرده و در اختیار کاربران قرار می دهد .این پروتکل در چند نسخه  ارائه شده است که آخرین نسخه آن ،نسخه 3 می باشد .همچنین غالب Webmail Service های کنونی از این پروتکل پشتیبانی می کنند .شماره پورت این پروتکل 110 می باشد .pop3 ایمیلها را ارسال نمی کند و تنها اقدام به دریافت و تحویل ایمیل ها به کلاینت ها در سطح شبکه می کند . در حقیقت زمانی که شما آدرسIncoming mail server   را در کامپیوتری که نرم افزار های ایمیل کلاینت(Microsoft Outlook, Outlook express) دارند می خواهید Set  کنید ،آدرس POP 3 Server را می بایست وارد کنید  .


 


(Internet message access protocol): IMAP


پروتکل IMAP یکی از پروتکل های لایه Application در مدل TCP/IP می باشد که به Email Client ها اجازه می دهد به ایمیل های موجود در یک Remote Email Server دسترسی داشته باشند . این پروتکل در چند نسخه ارائه شده است که آخرین نسخه آن ،نسخه 4 می باشد .همچنین اغلب Webmail Service های کنونی از این پروتکل پشتیبانی می کنند .شماره پورت این پروتکل 143 می باشد .IMAP ایمیلها را دریافت نمی کند و تنها اقدام به نمایش ایمیل ها به کلاینت ها در سطح شبکه می کند .وقتی با استفاده از IMAP در خواست مشاهده ایمیل‌های خود را می‌کنید، فایل‌ها مستقیماً از روی بانک اطلاعاتی سرور Email به شما نشان داده می‌شود. ولی POP3 هر بار که به آن متصل می‌شوید تمام ایمیل‌های شما را به صورت یک فایل به کامپیوترتان می‌فرستد و اطلاعات فایل را از روی سرور پاک می‌کند و امکان چک کردن ایمیل‌های را از چند کامپیوتر متفاوت را به شما نمی‌دهد  البته لازم به ذکر است در صورتی که از نرم افزار  Email Client ای مانند Microsoft Outlook  استفاده کنید این نرم افزار این امکان را به شما می دهد که یک کپی از ایمیل ها را بر رویه کامپیوتر شما منتقل کند (این قابلیت نرم افزار Outlook  است ،نه قابلیت POP3)  با IMAP این مشکل کاملاً حل شده است زیرا IMAP فایل ایمیل را مستقیما از روی بانک اطلاعات Email Server نمایش می دهد.


 


در اینجا با بررسی یک مثال واقعی نحوه کارکرد این پروتکل ها را به صورت خلاصه شرح می دهیم :


برای مثال می‌خواهیم ایمیلی از آدرس name1@mail1.com به آدرس name2@mail2.comبفرستیم.


فرض کنید برای اتصال به سرور ایمیل از مرورگر Explorer  Internet استفاده می‌کنیم.


• مرورگر به سرور SMTP  ؛ name1@mail1.comمتصل می‌شود و آدرس فرستنده و گیرنده و متن ایمیل را اعلام می‌کند.


• SMTP آدرس گیرنده را به دو قسمت نام (name2) و دامنه (mail2.com.) تقسیم می‌کند. اگر دامنه گیرنده مشابه دامنه فرستنده باشد،SMTP ایمیل را به سرور POP3 می‌دهد - که در مثال ما این طور نیست - و SMTP باید با سرور دامنه دیگر ارتباط برقرار کند.


• SMTPبه سرور DNSیا  Domain Name Server متصل می‌شود.DNS قسمتی از اینترنت است که دربرگیرنده بانک اطلاعاتی از نام دامنه‌ها و آدرس IP آنهاست. برای تبدیل نام دامنه به آدرس IP آن‌ها به DNS نیاز داریم. به این ترتیب SMTP آدرس IP سرور mail2.com را از DNS  دریافت می‌کند.


• SMTP آدرس name1@mail1.COM، را به SMTP آدرس name2@mail2.comمی‌دهد.  SMTP وقتی متوجه می‌شود ایمیل مربوط به دامنه خود است آن را به سرور POP3 می‌دهد.


 


اگر در این میان سرور SMTP با مشکلی مواجه شود، ایمیل فرستاده شده به لیست انتظاری اضافه می‌شود. معمولاً SMTPها از برنامه‌ای به نام Send Mail استفاده می‌کنند.


به همین دلیل لیست انتظار Send Mail Queue نام دارد. این برنامه مرتباً ایمیل را برای سرور می‌فرستد. اگر بعد از مدت معینی ایمیل به مقصد نرسد شما را از نرسیدن ایمیل با ارسال Undeliverable Massage  مطلع می‌سازد و آن را از لیست انتظار خارج می‌کند.


در این بین سرور POP3 وظیفه دریافت ایمیل‌ها را دارد و در نگاهی ساده به کار نوعی از این سرورها، ایمیل دریافتی به فایل متنی که POP3 برای شما ایجاد کرده اضافه می‌شود. برای مشاهده ایمیل‌ها تنها کافی است که فایل مخصوص خود را از POP3 دریافت کنید.


ولی کار POP3 در مقایسه با آن چیزی که همه از یک سرویس ایمیل انتظار دارند کمی متفاوت است. وقتی از POP3 استفاده می‌کنید، هربار که ایمیلی را باز می‌کنید، این ایمیل از فایل متن مخصوص شما حذف می‌شود. تفاوت بین POP3 و IMAP در همین است.


با استفاده از نرم افزارهای ایمیل مثل Microsoft Outlook می‌توانید از قابلیت POP3 هم استفاده کنید. هربار که به اینترنت متصل می‌شوید این برنامه‌ها تمام اطلاعات ایمیل شما را روی کامپیوترتان می‌ریزد.


به این ترتیب وقتی که به اینترنت متصل نیستید می‌توانید ایمیل‌هایی را که آخرین بار از سرور دریافت کرده‌اید را بخوانید و یا حتی ایمیلی بنویسید و بار دیگر که به اینترنت متصل می‌شوید آن را ارسال کنید.


شما می‌توانید فایل‌هایی را به ایمیل خود الصاق کنید. می‌توانید آنها را از ایمیل‌های دریافتی روی کامپیوتر خود بردارید.


در حال حاضر اساس کلی ارسال فایل همراه ایمیل به همین ترتیب است. ولی این کدسازی و کد خوانی به صورت اتوماتیک توسط سرور ایمیل انجام می‌شود و شما فقط فایل را اضافه و گیرنده آن را به همان شکل فایل اصلی دریافت می‌کند.


به گزارش پروژه‌‌ای به نام American Life نود ویک درصد استفاده کننده‌های اینترنت در مارس سال 2007 برای دسترسی به ایمیل خود از اینترنت استفاده کرده‌اند.


این گزارش همچنین می‌گوید که ۵۶ درصد استفاده کننده‌ها از سرویس ایمیل، این کار را به عنوان یک فعالیت روزمره انجام داده‌اند.


تعریف ایمیل کلاینت


ایمیل کلاینت در حقیت نرم افزاری است که از پروتکل های ایمیل پشتیبانی کرده و می تواند ایمیل ها را از سرور ایمیل دریافت و به کاربر نمایش دهد . ایمیل کلاینت را می توان به دو دسته کلی تقسیم بندی کرد :


نرم افزار های ایمیل کلاینت مانند Microsoft Outlook, Outlook Express, Eudora or Pegasus که شرکت های مختلف جهت کار با ایمیل آن را طراحی و ارائه نموده اند

Web Page Email Client ها که در حقیقت زمانی که شما با ایمیل های Yahoo, Hotmail, Gmail و ... کار می کنید یک صفحه وب تمامی نیاز های شما را جهت کار کردن با ایمیل برای شما فراهم می کند.

تعریف ایمیل سرور


ایمیل سرور تقریبا شبیه یک پستخانه مجازی می باشد .ایمیل سرور کامپیوتری است که عموماً دارای چندین قسمت می باشد


محلی جهت ذخیره سازی ایمیل های کاربران می باشد

شامل مجموعه قوانینی است که مشخص می کند  ایمیل سرور چطور باید ایمیل را به آدرس مقصد ارسال کند

دارای بانک اطلاعاتی جهت نگهداری آدرس ایمیل های کاربران می باشد

شامل مجموعه قوانینی است که تعیین می کند یک ایمیل سرور با ایمیل سرور ها و یا ایمیل کلاینت های دیگر چگونه ارتباط برقرار کند .

 

  • Sajjad Rezaei